JP6607121B2 - 画像認識装置、画像認識方法および画像認識ユニット - Google Patents

画像認識装置、画像認識方法および画像認識ユニット Download PDF

Info

Publication number
JP6607121B2
JP6607121B2 JP2016068276A JP2016068276A JP6607121B2 JP 6607121 B2 JP6607121 B2 JP 6607121B2 JP 2016068276 A JP2016068276 A JP 2016068276A JP 2016068276 A JP2016068276 A JP 2016068276A JP 6607121 B2 JP6607121 B2 JP 6607121B2
Authority
JP
Japan
Prior art keywords
image
image display
detection
quadrant
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016068276A
Other languages
English (en)
Other versions
JP2017181281A5 (ja
JP2017181281A (ja
Inventor
泰介 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016068276A priority Critical patent/JP6607121B2/ja
Priority to US16/090,117 priority patent/US10664104B2/en
Priority to CN201780021132.4A priority patent/CN109073363B/zh
Priority to PCT/JP2017/011420 priority patent/WO2017170027A1/ja
Publication of JP2017181281A publication Critical patent/JP2017181281A/ja
Publication of JP2017181281A5 publication Critical patent/JP2017181281A5/ja
Application granted granted Critical
Publication of JP6607121B2 publication Critical patent/JP6607121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Description

本発明は、画像認識装置、画像認識方法および画像認識ユニットに関するものである。
プロジェクターからの画像が投影されたスクリーンに指が触れているかいないかを検知する画像認識に応用できると思われる技術として、NIR光ランダムスペックルパターンを投影し、指で反射したNIR光(反射光)をNIRカメラで取得し、取得した情報からスクリーンに指が触れているかいないかを検知する技術がある(例えば、特許文献1参照)。
特表2009−511897号公報
しかしながら、特許文献1に記載の画像認識技術では、NIRカメラから見たときの指の奥行き方向の位置(深度)の検知精度が悪く、それに伴って、タッチ認識の精度も悪いという問題がある。
本発明の目的は、精度の高いタッチ認識を行うことのできる画像認識装置、画像認識方法および画像認識ユニットを提供することにある。
このような目的は、下記の本発明により達成される。
本発明の画像認識装置は、画像表示面に検出用画像を表示する検出用画像表示装置と、前記画像表示面を撮像する撮像装置と、を有し、前記検出用画像の鉛直方向上側の端を形成する光線群を含む面を第1仮想面、前記検出用画像の鉛直方向下側の端を形成する光線群を含む面を第2仮想面、前記画像表示面と前記検出用画像表示装置との間に位置し、前記第1仮想面と前記第2仮想面とに挟まれた領域を第1象限、前記第1象限の鉛直方向上側に位置する領域を第2象限、前記第1象限の鉛直方向下側に位置する領域を第3象限としたとき、前記第2象限または前記第3象限に前記撮像装置が配置されている画像表示ユニットで用いられる画像認識装置であって、
前記撮像装置が取得した画像に基づいて、前記検出用画像表示装置と前記画像表示面との間に対象物が位置したときに前記対象物によって前記検出用画像表示装置からの光が遮られることで前記画像表示面上に生じる消失部と、前記撮像装置と前記検出用画像表示装置の位置関係から決定され、かつ、前記消失部を通るエピポーラ線上にあって、前記対象物上に表示される前記検出用画像と、の距離を検知し、検知結果に基づいて前記対象物が前記画像表示面に接触しているか否かを判断する画像処理部を有することを特徴とする。
これにより、精度の高いタッチ認識を行うことのできる画像認識装置となる。
本発明の画像認識装置では、前記検出用画像は、前記エピポーラ線に交差する線状パターンを有していることが好ましい。
これにより、検出用画像が比較的簡単な構成となる。
本発明の画像認識装置では、前記撮像装置は、前記第2象限に配置され、
前記第1仮想面および前記第2仮想面は、共に、前記画像表示面側が前記検出用画像表示装置側よりも下方に位置するように傾斜していることが好ましい。
これにより、消失部を撮像装置でより確実に撮像することができる。
本発明の画像認識装置では、前記撮像装置は、前記第3象限に配置され、
前記第1仮想面および前記第2仮想面は、共に、前記画像表示面側が前記検出用画像表示装置側よりも上方に位置するように傾斜していることが好ましい。
これにより、消失部を撮像装置でより確実に撮像することができる。
本発明の画像認識装置では、前記線状パターンの前記消失部によって消失した消失部分は、前記対象物上に表示され、
前記画像処理部は、前記消失部分の前記対象物が無い場合に表示されている位置と、前記対象物上に表示されている実際の位置と、の前記エピポーラ線に沿った距離を検出することが好ましい。
これにより、比較的簡単に、かつ、高精度にタッチ認識を行うことができる。
本発明の画像認識装置では、前記画像処理部は、前記消失部の形状に基づいて、前記対象物の先端部の位置を推定する位置推定部を有していることが好ましい。
これにより、対象物と画像表示面との接触位置をより正確に検出することができる。
本発明の画像認識装置では、前記検出用画像は、前記エピポーラ線に交差して延在し、互いにパターンが異なる第1線状パターンおよび第2線状パターンを有し、
前記第1線状パターンおよび前記第2線状パターンが前記エピポーラ線の延在方向に沿って交互に並んで配置されていることが好ましい。
これにより、撮像装置の分解能よりも高い分解能で、タッチ認識を行うことができると共に、対象物と画像表示面との接触位置を検出することができる。
本発明の画像認識装置では、前記検出用画像は、前記撮像装置から近い側に位置する第1領域と、前記第1領域よりも前記撮像装置から遠い側に位置する第2領域と、を有し、
前記第1領域には前記エピポーラ線に沿って延在する線状パターンが配置され、前記第2領域には前記エピポーラ線に交差する線状パターンが配置されていることが好ましい。
これにより、特に、第1領域において、より確実に、タッチ認識を行うことができる。
本発明の画像認識方法は、画像表示面に検出用画像を表示する検出用画像表示装置と、前記画像表示面を撮像する撮像装置と、を有し、前記検出用画像の鉛直方向上側の端を形成する光線群を含む面を第1仮想面、前記検出用画像の鉛直方向下側の端を形成する光線群を含む面を第2仮想面、前記画像表示面と前記検出用画像表示装置との間に位置し、前記第1仮想面と前記第2仮想面とに挟まれた領域を第1象限、前記第1象限の鉛直方向上側に位置する領域を第2象限、前記第1象限の鉛直方向下側に位置する領域を第3象限としたとき、前記第2象限または前記第3象限に前記撮像装置が配置されている画像表示ユニットで用いられる画像認識方法であって、
前記撮像装置が取得した画像に基づいて、前記検出用画像表示装置と前記画像表示面との間に対象物が位置したときに前記対象物によって前記検出用画像表示装置からの光が遮られることで前記画像表示面上に生じる消失部と、前記撮像装置と前記検出用画像表示装置の位置関係から決定され、かつ、前記消失部を通るエピポーラ線上にあって、前記対象物上に表示される前記検出用画像と、の距離を検知し、検知結果に基づいて前記対象物が前記画像表示面に接触しているか否かを判断する判断ステップを有することを特徴とする。
これにより、精度の高いタッチ認識を行うことができる。
本発明の画像認識ユニットは、本発明の画像認識装置と、
前記検出用画像表示装置と、
前記撮像装置と、を有することを特徴とする。
これにより、精度の高いタッチ認識を行うことのできる画像認識ユニットが得られる。
本発明の画像認識ユニットでは、前記画像表示面に画像を表示する画像表示装置を有することが好ましい。
これにより、画像表示面に所望の画像を表示することができる。
本発明の第1実施形態に係る画像認識ユニットの構成を示す側面図である。 図1に示す画像認識ユニットの上面図である。 検出用画像を示す平面図である。 エピポーラ線について説明する図である。 タッチ認識を説明するための図である。 タッチ認識を説明するための図である。 スクリーンと指の離間距離の算出方法の一例を説明するための図である。 本発明の第2実施形態に係る画像認識ユニットのタッチ認識を説明する図である。 本発明の第3実施形態に係る画像認識ユニットで用いられる検出用画像を示す図である。 カメラで取得した画像をステレオ平行化した図である。 カメラで取得した画像をステレオ平行化した図である。 本発明の第4実施形態に係る画像認識ユニットで用いられる検出用画像を示す図である。 図12に示す検出用画像の変形例を示す図である。 本発明の第5実施形態に係る画像認識ユニットの構成を示す側面図である。 本発明の第6実施形態に係る画像認識ユニットの構成を示す側面図である。
以下、本発明の画像認識装置、画像認識方法および画像認識ユニットの好適な実施形態について、添付図面を参照しつつ説明する。
<第1実施形態>
図1は、本発明の第1実施形態に係る画像認識ユニットの構成を示す側面図である。図2は、図1に示す画像認識ユニットの上面図である。図3は、検出用画像を示す平面図である。図4は、エピポーラ線について説明する図である。図5および図6は、タッチ認識を説明するための図である。図7は、スクリーンと指の離間距離の算出方法の一例を説明するための図である。なお、説明の便宜上、図1に示すように、互いに直交する3軸をX軸、Y軸およびZ軸とし、Y軸が鉛直方向に沿うこととする。
図1に示す画像認識ユニット100は、画像表示面としての平坦なスクリーン900に対象物としての指Fが接触しているか否かを判断することのできる装置である。このような画像認識ユニット100によれば、スクリーン900への指Fの接触を検知することでスクリーン900に映し出されている画像(観察者に視認させたい画像。以下「表示用画像」とも言う。)を切り替えることができる。なお、以下では、説明の便宜上、スクリーン900に指Fが接触しているか否かの判断を「タッチ認識」と言う。
また、画像認識ユニット100は、例えば、プレゼンテーションに利用することができ、プレゼンターの指Fのタッチ認識を行って、必要時にスクリーン900に映し出される表示用画像を切り替えたり、拡大または縮小したりすることで、プレゼンテーションをスムーズに進行することが可能となる。
なお、画像表示面としては、スクリーン900に限定されず、例えば、壁、ガラス等であってもよい。また、画像表示面は、平坦でなくてもよく、球面や凹凸面であってもよい。また、画像表示面は、経時的に形状が変化してもよい。また、タッチ認識を行う対象物としては、指Fに限定されず、例えば、指し棒、画像表示面に吸着したマグネット等であってもよい。また、画像認識ユニット100の用途としては、プレゼンテーションに限定されず、例えば、デパート等の店舗案内、取扱商品の紹介・検索等、様々な用途に用いることができる。
このような画像認識ユニット100は、図1および図2に示すように、スクリーン900に検出用画像800を表示する検出用画像表示装置としてのプロジェクター300と、スクリーン900を撮像する撮像装置としてのカメラ400と、を有する画像表示ユニット200と、タッチ認識を行う画像認識装置500と、スクリーン900に表示用画像(画像)を表示する画像表示装置としてのプロジェクター700と、を有している。
プロジェクター300およびカメラ400は、異なる位置に配置されている。また、プロジェクター300およびカメラ400の相対的(幾何的)な位置関係は一定であり、位置関係に関する情報は、画像認識装置500が有する図示しない記憶部に記憶され、適宜使用される。
ここで、プロジェクター300およびカメラ400の具体的な位置関係を説明する。図1に示すように、検出用画像800の鉛直方向上側(+Y軸側)の端を形成する光線群を含む面を第1仮想面f1、検出用画像800の鉛直方向下側(−Y軸側)の端を形成する光線群を含む面を第2仮想面f2、スクリーン900とプロジェクター300との間に位置し、第1仮想面f1と第2仮想面f2とに挟まれた領域を第1象限S1、第1象限S1の鉛直方向上側に位置する領域を第2象限S2、第1象限S1の鉛直方向下側に位置する領域を第3象限S3としたとき、第2象限S2にカメラ400が配置されている。また、プロジェクター300は、例えば、天井等に吊り下げられており、比較的高い位置から斜め下側に向けて光を出射するように配置されている。そして、プロジェクター300からはスクリーン900の法線(Z軸)と一致する光軸を持つ光が出射されず、第1仮想面f1および第2仮想面f2が、共に、スクリーン900側がプロジェクター300側よりも下方に位置するように傾斜している。プロジェクター300およびカメラ400をこのような配置とすることで、プロジェクター300とスクリーン900との間に指Fが存在したときに、指Fによってプロジェクター300からの光(検出用画像800を形成する光)が遮蔽されることでスクリーン900上に生じる消失部890(影部。図6参照。)をカメラ400でより確実に撮像することができる。
また、図2に示すように、鉛直方向上側から見た平面視で、プロジェクター300とカメラ400とは、スクリーン900の法線方向(Z軸方向)に沿って並んで配置されている。さらには、プロジェクター300の光軸およびカメラ400の光軸が、それぞれ、法線方向に沿っている。
以上、プロジェクター300およびカメラ400の配置について説明したが、プロジェクター300およびカメラ400の配置としては、第2象限S2にカメラ400が配置されていれば、上述の配置に限定されない。
以下、プロジェクター300、カメラ400および画像認識装置500について順に説明する。
[プロジェクター300]
プロジェクター300は、タッチ認識を行うための検出用画像800をスクリーン900に表示する装置である。本実施形態のプロジェクター300は、NIR(近赤外)光を出射する光源と、光源から出射されたNIR光を回折する回折光学素子と、回折したNIR光を投影するレンズ系と、を有する構成となっている。これにより、プロジェクター300の構成が比較的簡単なものとなる。特に、NIR光を用いることで、検出用画像800が人間に視認され難くなるため、プロジェクター700からの映像(表示用画像)を劣化させるおそれがない。
なお、プロジェクター300としては、検出用画像800をスクリーン900に投影することができれば本実施形態の構成に限定されず、例えば、光走査方式のプロジェクターであってもよいし、LCD方式のプロジェクターであってもよいし、DMD方式のプロジェクターであってもよい。また、プロジェクター300の光源としては、NIR光を出射する光源に限定されず、可視光を出射する光源であってもよい。この場合には、検出用画像800を人間に視認され難いような輝度変化を与えたものとしたり、人間の眼で視認され難い周波数で周期的に表示したりするようにすることが好ましい。これにより、検出用画像800との重なりによって表示用画像が劣化するおそれを低減することができる。
このようなプロジェクター300によってスクリーン900に表示される検出用画像800は、図3に示すように、エピポーラ線ELに対して交差する方向に延びる線状パターン810がエピポーラ線ELの延在方向に沿って等ピッチ(等間隔)に複数配置された画像となっている。これにより、検出用画像800が比較的簡単な構成となる。特に、本実施形態では、線状パターン810がエピポーラ線ELに対して直交している。そのため、エピポーラ線ELの延在方向でのピッチは同じであるがエピポーラ線ELに対して直交していない線状パターン810と比較して、最小ピッチを大きくすることができる。したがって、画像認識装置500によって、隣り合う線状パターン810をより明確に判別することができ、タッチ認識をより高精度に行うことができる。ここで、線状パターン810のピッチとしては特に限定されず、カメラ400の分解能によっても異なるが、例えば、5mm以上、20mm以下程度とすることができる。なお、図3は、説明の便宜上、エピポーラ線ELが垂直成分となるようにステレオ平行化した検出用画像800を図示している。実際には、エピポーラ線ELが放射状に延びていることから、線状パターン810は、円弧状のパターンとなる。
ここで、エピポーラ線ELについて簡単に説明する。エピポーラ線ELは、プロジェクター300とカメラ400の幾何的(相対的)な位置関係によって決定する線である。具体的には、図4に示すように、カメラ400のカメラ中心(レンズ系の主点)C1とプロジェクター300のプロジェクター中心(レンズ系の主点)C2とを結ぶ直線(ベースライン)l2と、プロジェクター300の仮想画像平面π2との交点をエピポーラ点Peと言い、仮想画像平面π2内においてエピポーラ点Peを通る全ての直線をエピポーラ線ELと言う。
また、指Fがカメラ400の画像に含まれていれば、カメラ400の画像平面π1内での指Fの座標(面内座標)xが決定される。この座標xとカメラ中心C1とを通る直線l1と直線l2とによって規定される平面をエピポーラ平面Σと言う。そして、エピポーラ平面Σと仮想画像平面π2とが交差してできる直線l3と一致するエピポーラ線ELを「エピポーラ線EL’」とした場合、エピポーラ線EL’上のどこかに指Fが位置することになる。
以上、検出用画像800について説明したが、検出用画像800としては、タッチ認識に用いることができれば、これに限定されず、例えば、複数の点(ドット)が均一に散らばっているような画像であってもよい。
[カメラ400]
カメラ400は、スクリーン900上の検出用画像800を撮像する装置である。このようなカメラ400は、例えば、NIR光に対応したNIRカメラであり、レンズ系および撮像素子を備える受光ユニットと、撮像素子からの映像信号を処理する処理部と、を有している。
[画像認識装置]
画像認識装置500は、前述したプロジェクター300およびカメラ400を用いてタッチ認識を行う装置である。このような画像認識装置500は、図1に示すように、画像処理部510を有している。画像処理部510は、カメラ400が取得した画像に基づいて、プロジェクター300とスクリーン900との間に指Fが位置したときに当該指Fによってプロジェクター300からの光(検出用画像800を形成する光)が遮られることでスクリーン900上に生じる消失部890と、カメラ400とプロジェクター300の位置関係から決定され、かつ、消失部890を通るエピポーラ線EL’上にあって指F上に表示される検出用画像800と、の距離Dを検知し、検知結果(求められた距離D)に基づいてタッチ認識を行うように構成されている。このように、距離Dに基づくことで、簡単かつ高精度なタッチ認識が可能となる。以下、画像処理部510について具体的に説明する。
図5および図6は、それぞれ、カメラ400で撮像したスクリーン900上の検出用画像800をステレオ平行化した画像を示す図である。スクリーン900とプロジェクター300との間に指Fが存在しない場合には、プロジェクター300からの光が遮られることなくスクリーン900に照射されるため、図5に示すように、スクリーン900に表示された検出用画像800には消失部890が生じない。これに対して、スクリーン900とプロジェクター300との間に指Fが存在する場合には、プロジェクター300からの光が指Fに遮られるため、図6に示すように、スクリーン900に表示された検出用画像800には指Fで遮られた部分に相当する消失部890が生じ、消失部890によって消失した部分(消失部分)は、エピポーラ線ELの延在方向にずれて指F上に表示されている。
図6に示すように、線状パターン811、812(810)の消失部890によって消失した消失部分811a、812aは、エピポーラ線EL’の延在方向にずれて指F上に表示される。そのため、画像処理部510は、ステレオ平行化した画像から、消失部890と重なる線状パターン811、812のうち最も上側(指Fに対して遠位側)に位置する線状パターン811の位置に基づいて、消失部分811aの本来の位置P1(指Fが無い場合に表示されている位置)を設定し、次に、位置P1を通るエピポーラ線EL’上に位置し、指F上に表示されている実際の消失部分811aの位置P2を設定する。なお、指F上の消失部分811aと消失部890との間に線状パターン811以外の線状パターン810が表示されることはあり得ず、消失部890を下側に抜けて最初に出現する線状パターン810が消失部分811aであると断定することができる。そして、次に、画像処理部510は、位置P1と位置P2とのエピポーラ線EL’に沿った距離Dを求める。この距離Dは、スクリーン900と指Fとの離間距離が短い程、小さくなるため、画像処理部510は、例えば、距離Dが予め設定した閾値以下であれば、指Fがスクリーン900に接触している「接触状態」と判断し、閾値を超えていれば、指Fがスクリーン900に接触していない「非接触状態」と判断する(判断ステップ)。このような画像処理部510によれば、距離Dを求めるだけでよいため、比較的簡単に、かつ、高精度にタッチ認識を行うことができる。
さらに、画像処理部510は、ステレオ平行化した画像から指Fのタッチ位置のXY座標(平面座標)を検出する。なお、消失部890の先端部が指Fの先端部の位置に対応するため、消失部890の先端部(消失部分811a)の座標をタッチ位置の座標として検出することが好ましい。
また、画像処理部510は、タッチ認識の結果を図示しない制御部に送信する。この判定結果を受けた制御部は、画像処理部510から送信されたタッチ認識の結果が「接触状態」である場合には、共に送信されたタッチ位置の座標情報に基づいて、プロジェクター700に対して、例えば、スクリーン900に表示されている表示用画像を拡大または縮小する命令や、表示用画像を切り替える命令等、指Fの接触位置によって定められている画面操作命令を送信する。このような制御を行うことで、指Fでスクリーン900をタッチするだけで、スクリーン900に表示される表示用画像を操作することができるため、利便性の高い画像認識ユニット100となる。
以上のような画像認識ユニット100によれば、精度の高いタッチ認識を行うことができる。
なお、以下に、スクリーン900と指Fの離間距離(スクリーン900からの指Fの浮遊距離)の算出方法の一例を図7に基づいて説明する。カメラ400の焦点距離をfとし、カメラ400とプロジェクター300との距離からなる基線長をLとし、スクリーン900に対するカメラ400の光軸の傾きをαとし、カメラ400とスクリーン900の距離(ステレオ基準面方向の距離)をhとしたとき、事前の校正によって、tanβ1=z1/(L−y1)、tanα=(h+y1)/z1、z1=y1×(f/i1)、z2=y2×(f/i2)の関係を満足している。また、三角測量の基本原理より、z1=L/{(i1/f)+(1/tanβ1)}、z2=L/{(i2/f)+(1/tanβ1)}の関係を満足している。また、図7より、(h+y1)/z1=(h+y0)/z2の関係を満足している。よって、スクリーン900と指Fの離間距離Δfは、Δf=(y2−y0)×cosαの関係を満足する。これにより、スクリーン900と指Fの離間距離Δfを比較的簡単に算出することができる。
<第2実施形態>
次に、本発明の第2実施形態に係る画像認識ユニットについて説明する。
図8は、本発明の第2実施形態に係る画像認識ユニットのタッチ認識を説明する図である。なお、図8では、説明の便宜上、エピポーラ線が垂直成分となるようにステレオ平行化した図を示している。
以下、本発明の第2実施形態に係る画像認識ユニットについて説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第2実施形態の画像認識ユニットは、画像認識装置の構成が異なること以外は、前述した第1実施形態と同様である。なお、前述した実施形態と同様の構成には、同一符号を付してある。
本実施形態の画像処理部510は、前述した第1実施形態と比較して、タッチ位置のXY座標をより精度よく検出できるようになっている。以下、具体的に説明する。本実施形態の画像処理部510は、消失部890の形状に基づいて、指Fの先端部の位置を推定する位置推定部を有している。位置推定部は、図8に示すように、消失部890で消失した線状パターン811、812の消失部分811a、812aの長さ方向の中点P811、P812を通る線分Lfを設定し、この線分Lfの延在方向に指Fが延びていると推定する。次に、消失部分811a、812aのうちの消失部890の最も上側に位置する消失部分811aと同じ長さを1辺とする正三角形状のマーカーMを仮想的に生成し、このマーカーMを消失部分811aの先端側(指Fと反対側)に、線分Lfに沿うように配置する。マーカーMは、指Fの先端部(指先)を模した形状となっているため、マーカーMの頂点Pmを指Fの先端部の位置と推定することができる。そのため、画像処理部510は、頂点PmのXY座標をタッチ位置の座標として検出する。このように、位置推定部を有することで、タッチ位置の座標をより正確に検出することができる。
なお、線状パターン810のピッチをD810とし、消失部分811a(消失部890の最も上側に位置する消失部分)の長さをD890としたとき、D810>D890の関係を満たす場合にのみ、位置推定部による上述の推定を行うことが好ましい。言い換えれば、マーカーMの頂点Pmが線状パターン811の直上に位置する線状パターン810よりも下側に位置する場合にのみ位置推定部による上述の推定を行うことが好ましい。これは、D810≦D890の場合に位置推定部による上述の推定を行うと、推定を行わない場合と比較して実際の指Fの先端部の位置からのずれ量が大きくなってしまうおそれがあるためである。
以上のような第2実施形態によっても、上述した第1実施形態と同様の効果を発揮することができる。なお、本実施形態では、マーカーMが正三角形で構成されているが、マーカーMの形状としては、特に限定されず、対象物の先端形状に倣うように、適宜変更することができる。
<第3実施形態>
次に、本発明の第3実施形態に係る画像認識ユニットについて説明する。
図9は、本発明の第3実施形態に係る画像認識ユニットで用いられる検出用画像を示す図である。図10および図11は、それぞれ、カメラで取得した画像をステレオ平行化した図である。
以下、本発明の第3実施形態に係る画像認識ユニットについて説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第3実施形態の画像認識ユニットは、検出用画像が異なること以外は、前述した第1実施形態と同様である。なお、前述した実施形態と同様の構成には、同一符号を付してある。
図9に示すように、本実施形態の検出用画像800は、エピポーラ線ELに交差(本実施形態では直交)して延在し、互いにパターンが異なる第1線状パターン820および第2線状パターン830を有し、第1、第2線状パターン820、830がエピポーラ線ELの延在方向に沿って交互に並んで配置されている。第1線状パターン820は、延在方向に輝度が一定のパターンとなっており、第2線状パターン830は、第1輝度を有する部分と、第1輝度と異なる第2輝度を有する部分とが交互にかつ周期的(等間隔)に並んだパターンとなっている。
スクリーン900の下側ほど、カメラ400との角度が小さくなるため、カメラ400が取得する画像では、図10に示すように、スクリーン900の下側へ向けて第1、第2線状パターン820、830のピッチが漸減すると共に、第1、第2線状パターン820、830の幅も漸減する。そのため、カメラ400の分解能(解像度)によっては、スクリーン900の上部に写る検出用画像800(第1、第2線状パターン820、830)については鮮明に認識することができても、スクリーン900の下部に写る検出用画像800(第1、第2線状パターン820、830)については鮮明に認識することが困難な場合も考えられる。
そのため、スクリーン900の下部では消失部890の最も上側(先端側)に位置するのが第1、第2線状パターン820、830のどちらであるのかを認識することができないおそれがある。一方、図11に示すように、指Fは、スクリーン900の下部に位置していてもカメラ400との角度が大きくなるため、指F上に写った第1、第2線状パターン820、830については鮮明に認識することができる。そのため、指Fの最も先端側に位置するのが第1、第2線状パターン820、830のどちらであるかを認識することで、消失部890の最も先端側に位置するのが第1、第2線状パターン820、830のどちらであるかを判断することができる。これは、指Fの最も先端側に位置する線状パターンと、消失部890の最も先端側に位置する線状パターンは、同列のパターンとなるためである。したがって、本実施形態によれば、カメラ400の分解能よりも高い分解能で、タッチ認識を行うことができると共に、タッチ位置のXY座標を取得することができる。
以上のような第3実施形態によっても、上述した第1実施形態と同様の効果を発揮することができる。なお、本実施形態では、検出用画像が、第1線状パターン820および第2線状パターン830が、エピポーラ線ELの延在方向に沿って交互に配置された構成となっているが、検出用画像としては特に限定されない。例えば、第1、第2線状パターン820、830と異なる第3線状パターンを有していてもよい。
<第4実施形態>
次に、本発明の第4実施形態に係る画像認識ユニットについて説明する。
図12は、本発明の第4実施形態に係る画像認識ユニットで用いられる検出用画像を示す図である。図13は、図12に示す検出用画像の変形例を示す図である。
以下、本発明の第4実施形態に係る画像認識ユニットについて説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第4実施形態の画像認識ユニットは、検出用画像が異なること以外は、前述した第1実施形態と同様である。なお、前述した実施形態と同様の構成には、同一符号を付してある。
前述した第1実施形態の問題として以下の問題が挙げられる。すなわち、指Fがスクリーン900の法線方向(Z軸方向)とは異なる方向に沿ってスクリーン900に接近する場合には、スクリーン900と指Fの離間距離に応じて距離Dが変化するため、距離Dに基づいてタッチ認識を行うことができるが、指Fがスクリーン900の法線方向に沿ってスクリーン900に接近する場合には、スクリーン900と指Fの離間距離が変化しても距離Dが変化しないため、正確なタッチ認識を行うことができなくなる。このような問題は、特に、カメラ400の分解能が高いスクリーン900の上部において発生する。そこで、本実施形態では、指Fがスクリーン900の法線方向に沿ってスクリーン900に接近する場合でも、正確なタッチ認識を行うことができるような検出用画像800としている。
図12に示すように、本実施形態の検出用画像800は、スクリーン900の上部(カメラ400から近い側)に位置する第1領域800Aと、スクリーン900の下部(カメラ400から遠い側)に位置する第2領域800Bと、を有している。そして、第1領域800Aには、エピポーラ線ELに沿って延在する線状パターン850がエピポーラ線ELと直交する方向に沿って等ピッチに複数配置されている。一方、第2領域800Bには、エピポーラ線ELに交差(本実施形態では直交)する線状パターン860がエピポーラ線ELの延在方向に沿って等ピッチに複数配置されている。このような構成とすることで、第1領域800Aにおいて、指Fがスクリーン900の法線方向に沿ってスクリーン900に接近する場合でも、より確実に、タッチ認識を行うことができる。
以上のような第4実施形態によっても、上述した第1実施形態と同様の効果を発揮することができる。なお、本実施形態の検出用画像800の変形例として、図13に示すような検出用画像800としてもよい。図13に示す検出用画像800では、第2領域800Bに、エピポーラ線ELに直交(交差)し、互いにパターンが異なる線状パターン861、862、863がエピポーラ線ELの延在方向に沿って等ピッチにかつ交互に並んで複数配置されている。このような構成によれば、前述した第3実施形態と同様に、スクリーン900の下部においても、精度よくタッチ認識を行うことができる。
<第5実施形態>
次に、本発明の第5実施形態に係る画像認識ユニットについて説明する。
図14は、本発明の第5実施形態に係る画像認識ユニットの構成を示す側面図である。
以下、本発明の第5実施形態に係る画像認識ユニットについて説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第5実施形態の画像認識ユニットは、撮像素子および検出用画像表示装置の配置が異なること以外は、前述した第1実施形態と同様である。なお、前述した実施形態と同様の構成には、同一符号を付してある。
図14に示すように、本実施形態では、第3象限S3にカメラ400が配置されている。また、プロジェクター300は、例えば床に設置されており、比較的低い位置から斜め上側に向けて光を出射するように配置されている。そして、プロジェクター300からはスクリーン900の法線と一致する光軸を持つ光が出射されず、第1仮想面f1および第2仮想面f2が、共に、スクリーン900側がプロジェクター300側よりも上方に位置するように傾斜している。プロジェクター300およびカメラ400をこのような配置とすることで、プロジェクター300とスクリーン900との間に指Fが存在したときに、消失部890をカメラ400でより確実に撮像することができる。
なお、本実施形態は、前述した第1実施形態の構成を上下反転させた構成であり、第1実施形態の説明を上下反転すれば本実施形態の説明となる。したがって、本実施形態の詳細な説明は省略する。
以上のような第5実施形態によっても、上述した第1実施形態と同様の効果を発揮することができる。
<第6実施形態>
次に、本発明の第6実施形態に係る画像認識ユニットについて説明する。
図15は、本発明の第6実施形態に係る画像認識ユニットの構成を示す側面図である。
以下、本発明の第6実施形態に係る画像認識ユニットについて説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第6実施形態の画像認識ユニットは、検出用画像表示装置の配置が異なること以外は、前述した第1実施形態と同様である。なお、前述した実施形態と同様の構成には、同一符号を付してある。
図15に示すように、本実施形態では、プロジェクター300からスクリーン900の法線と一致する光軸を持つ光が出射され、第1仮想面f1は、スクリーン900側がプロジェクター300側よりも上方に位置するように傾斜しており、第2仮想面f2は、スクリーン900側がプロジェクター300側よりも下方に位置するように傾斜している。
以上のような第6実施形態によっても、上述した第1実施形態と同様の効果を発揮することができる。
以上、本発明の画像認識装置、画像認識方法および画像認識ユニットについて、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではない。例えば、本発明の画像認識装置では、各部の構成は、同様の機能を有する任意の構成のものに置換することができ、また、他の任意の構成を付加することもできる。
また、前述した実施形態では、Y軸が鉛直方向に沿って配置されているが、Y軸は鉛直方向に沿っていなくてもよい。すなわち、前述実施形態に対して、Y軸がX軸まわりに所定角度回転していてもよいし、Y軸がZ軸まわりに所定角度回転していてもよい。
100…画像認識ユニット、200…画像表示ユニット、300…プロジェクター、400…カメラ、500…画像認識装置、510…画像処理部、700…プロジェクター、800…検出用画像、800A…第1領域、800B…第2領域、810…線状パターン、811、812…線状パターン、811a、812a…消失部分、820…第1線状パターン、830…第2線状パターン、850、860…線状パターン、861、862、863…線状パターン、890…消失部、900…スクリーン、C1…カメラ中心、C2…プロジェクター中心、D…距離、EL、EL’…エピポーラ線、F…指、Lf…線分、l1、l2、l3…直線、M…マーカー、P1、P2…位置、P811、P812…中点、Pe…エピポーラ点、Pm…頂点、S1…第1象限、S2…第2象限、S3…第3象限、f1…第1仮想面、f2…第2仮想面、x…座標、Σ…エピポーラ平面、π1…画像平面、π2…仮想画像平面

Claims (13)

  1. 検出用画像表示装置により検出用画像表示された画像表示面を、撮像装置により撮像して取得した画像に基づいて、対象物が前記画像表示面に接触しているか否かを判断する画像認識装置であって、
    前記撮像装置が取得した前記画像に基づいて、前記検出用画像表示装置と前記画像表示面との間に対象物が位置したときに前記対象物によって前記検出用画像表示装置からの光が遮られることで前記画像表示面上に生じる消失部と、前記撮像装置と前記検出用画像表示装置の位置関係から決定され、かつ、前記消失部を通るエピポーラ線上にあって、前記対象物上に表示される前記検出用画像と、の距離を検知し、検知結果に基づいて前記対象物が前記画像表示面に接触しているか否かを判断する画像処理部を有することを特徴とする画像認識装置。
  2. 前記検出用画像の鉛直方向上側の端を形成する光線群を含む面を第1仮想面、前記検出用画像の鉛直方向下側の端を形成する光線群を含む面を第2仮想面、前記画像表示面と前記検出用画像表示装置との間に位置し、前記第1仮想面と前記第2仮想面とに挟まれた領域を第1象限、前記第1象限の鉛直方向上側に位置する領域を第2象限、前記第1象限の鉛直方向下側に位置する領域を第3象限としたとき、前記第2象限または前記第3象限に前記撮像装置が配置されている請求項1に記載の画像認識装置。
  3. 前記検出用画像は、前記エピポーラ線に交差する線状パターンを有している請求項に記載の画像認識装置。
  4. 前記撮像装置は、前記第2象限に配置され、
    前記第1仮想面および前記第2仮想面は、共に、前記画像表示面側が前記検出用画像表示装置側よりも下方に位置するように傾斜している請求項またはに記載の画像認識装置。
  5. 前記撮像装置は、前記第3象限に配置され、
    前記第1仮想面および前記第2仮想面は、共に、前記画像表示面側が前記検出用画像表示装置側よりも上方に位置するように傾斜している請求項またはに記載の画像認識装置。
  6. 前記線状パターンの前記消失部によって消失した消失部分は、前記対象物上に表示され、
    前記画像処理部は、前記消失部分の前記対象物が無い場合に表示されている位置と、前記対象物上に表示されている実際の位置と、の前記エピポーラ線に沿った距離を検出する請求項1ないしのいずれか1項に記載の画像認識装置。
  7. 前記画像処理部は、前記消失部の形状に基づいて、前記対象物の先端部の位置を推定する位置推定部を有している請求項1ないしのいずれか1項に記載の画像認識装置。
  8. 前記検出用画像は、前記エピポーラ線に交差して延在し、互いにパターンが異なる第1線状パターンおよび第2線状パターンを有し、
    前記第1線状パターンおよび前記第2線状パターンが前記エピポーラ線の延在方向に沿って交互に並んで配置されている請求項1ないしのいずれか1項に記載の画像認識装置。
  9. 前記検出用画像は、前記撮像装置から近い側に位置する第1領域と、前記第1領域よりも前記撮像装置から遠い側に位置する第2領域と、を有し、
    前記第1領域には前記エピポーラ線に沿って延在する線状パターンが配置され、前記第2領域には前記エピポーラ線に交差する線状パターンが配置されている請求項1ないしのいずれか1項に記載の画像認識装置。
  10. 検出用画像表示装置により検出用画像表示された画像表示面を、撮像装置により撮像して取得した画像に基づいて、対象物が前記画像表示面に接触しているか否かを判断する画像認識方法であって、
    前記撮像装置が取得した前記画像に基づいて、前記検出用画像表示装置と前記画像表示面との間に対象物が位置したときに前記対象物によって前記検出用画像表示装置からの光が遮られることで前記画像表示面上に生じる消失部と、前記撮像装置と前記検出用画像表示装置の位置関係から決定され、かつ、前記消失部を通るエピポーラ線上にあって、前記対象物上に表示される前記検出用画像と、の距離を検知し、検知結果に基づいて前記対象物が前記画像表示面に接触しているか否かを判断する判断ステップを有することを特徴とする画像認識方法。
  11. 前記検出用画像の鉛直方向上側の端を形成する光線群を含む面を第1仮想面、前記検出用画像の鉛直方向下側の端を形成する光線群を含む面を第2仮想面、前記画像表示面と前記検出用画像表示装置との間に位置し、前記第1仮想面と前記第2仮想面とに挟まれた領域を第1象限、前記第1象限の鉛直方向上側に位置する領域を第2象限、前記第1象限の鉛直方向下側に位置する領域を第3象限としたとき、前記第2象限または前記第3象限に前記撮像装置が配置されている請求項10に記載の画像認識方法
  12. 請求項1ないしのいずれか1項に記載の画像認識装置と、
    前記検出用画像表示装置と、
    前記撮像装置と、を有することを特徴とする画像認識ユニット。
  13. 前記画像表示面に画像を表示する画像表示装置を有する請求項12に記載の画像認識ユニット。
JP2016068276A 2016-03-30 2016-03-30 画像認識装置、画像認識方法および画像認識ユニット Active JP6607121B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016068276A JP6607121B2 (ja) 2016-03-30 2016-03-30 画像認識装置、画像認識方法および画像認識ユニット
US16/090,117 US10664104B2 (en) 2016-03-30 2017-03-22 Image recognition device, image recognition method, and image recognition unit
CN201780021132.4A CN109073363B (zh) 2016-03-30 2017-03-22 图像识别装置、图像识别方法以及图像识别单元
PCT/JP2017/011420 WO2017170027A1 (ja) 2016-03-30 2017-03-22 画像認識装置、画像認識方法および画像認識ユニット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016068276A JP6607121B2 (ja) 2016-03-30 2016-03-30 画像認識装置、画像認識方法および画像認識ユニット

Publications (3)

Publication Number Publication Date
JP2017181281A JP2017181281A (ja) 2017-10-05
JP2017181281A5 JP2017181281A5 (ja) 2019-02-14
JP6607121B2 true JP6607121B2 (ja) 2019-11-20

Family

ID=59965444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016068276A Active JP6607121B2 (ja) 2016-03-30 2016-03-30 画像認識装置、画像認識方法および画像認識ユニット

Country Status (4)

Country Link
US (1) US10664104B2 (ja)
JP (1) JP6607121B2 (ja)
CN (1) CN109073363B (ja)
WO (1) WO2017170027A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6668763B2 (ja) 2016-01-13 2020-03-18 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP6668764B2 (ja) 2016-01-13 2020-03-18 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP6631261B2 (ja) 2016-01-14 2020-01-15 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP7263983B2 (ja) * 2019-08-30 2023-04-25 富士通株式会社 撮影漏れ検出装置、及び、撮影漏れ検出方法
CN112054859B (zh) * 2019-11-25 2023-12-29 陕西智航信科技有限公司 天线强度失配分析系统及方法
CN113409290B (zh) * 2021-06-29 2023-12-15 北京兆维电子(集团)有限责任公司 一种液晶屏外观缺陷检测方法、装置及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59109904U (ja) * 1983-01-14 1984-07-24 株式会社東京精密 触針式形状測定機の測定位置検知装置
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
JP2004077290A (ja) 2002-08-19 2004-03-11 Fuji Xerox Co Ltd 3次元形状計測装置および方法
JP4507806B2 (ja) * 2004-10-01 2010-07-21 三菱電機株式会社 指紋画像撮像装置
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8050461B2 (en) 2005-10-11 2011-11-01 Primesense Ltd. Depth-varying light fields for three dimensional sensing
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
CN101496033B (zh) 2006-03-14 2012-03-21 普莱姆森斯有限公司 利用散斑图案的三维传感
EP1994503B1 (en) 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
CN101231450B (zh) * 2008-02-25 2010-12-22 陈伟山 多点及物体触摸屏装置及多点触摸的定位方法
US8120642B2 (en) * 2008-07-25 2012-02-21 Honeywell International Inc. Optical fingerprint acquisition
JP5423222B2 (ja) * 2009-08-07 2014-02-19 ソニー株式会社 位置検出装置および位置検出方法
JP5304848B2 (ja) 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
TWI529572B (zh) * 2011-02-23 2016-04-11 原相科技股份有限公司 操控物的偵測方法及觸控裝置
KR101295760B1 (ko) * 2011-03-10 2013-08-13 주식회사 미르기술 다중 격자 무늬를 이용한 비전검사장치
CN102841733B (zh) * 2011-06-24 2015-02-18 株式会社理光 虚拟触摸屏系统以及自动切换交互模式的方法
US10140011B2 (en) * 2011-08-12 2018-11-27 Microsoft Technology Licensing, Llc Touch intelligent targeting
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
EP2749996B1 (en) * 2012-12-28 2018-05-30 Sony Mobile Communications Inc. Electronic device and method for improving accuracy of location determination of a user input on a touch panel
JP6089722B2 (ja) * 2013-01-23 2017-03-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US20140267031A1 (en) * 2013-03-12 2014-09-18 Kenneth J. Huebner Spatially aware pointer for mobile appliances
JP2014179032A (ja) * 2013-03-15 2014-09-25 Ricoh Co Ltd 仮想キー入力装置
CN103383731B (zh) 2013-07-08 2016-12-28 深圳先进技术研究院 一种基于指尖定位的投影交互方法、系统及计算设备
JP6643825B2 (ja) * 2014-08-25 2020-02-12 キヤノン株式会社 装置及び方法
JP6668764B2 (ja) 2016-01-13 2020-03-18 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP6668763B2 (ja) 2016-01-13 2020-03-18 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP6631261B2 (ja) 2016-01-14 2020-01-15 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット

Also Published As

Publication number Publication date
US20190114033A1 (en) 2019-04-18
CN109073363B (zh) 2020-07-10
JP2017181281A (ja) 2017-10-05
CN109073363A (zh) 2018-12-21
US10664104B2 (en) 2020-05-26
WO2017170027A1 (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6607121B2 (ja) 画像認識装置、画像認識方法および画像認識ユニット
JP4913344B2 (ja) ポインタ追跡方法、ポインタ接触位置検出方法、およびタッチシステム
JP6621836B2 (ja) 光パターンの強度変動を利用した体積内の物体の深さマッピング
US8985774B2 (en) Floating image interaction device and its program
US9429417B2 (en) Touch and motion detection using surface map, object shadow and a single camera
US20130106833A1 (en) Method and apparatus for optical tracking of 3d pose using complex markers
US9879984B2 (en) Optical scanning probe and apparatus for generating three-dimensional data using the same
JP2005122746A (ja) 干渉パターンを用いた動き追跡方法およびシステム
US9736440B2 (en) Holographic projection device capable of forming a holographic image without misalignment
JP2017146938A (ja) 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム
US10499039B2 (en) Path detection system and path detection method generating laser pattern by diffractive optical element
WO2015159547A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体
US20160092032A1 (en) Optical touch screen system and computing method thereof
EP2645212A2 (en) Display apparatus with optical touch panel and method of controlling display apparatus
US20150338923A1 (en) Method and system for generating user feedback of a gesture capturing device
JP6740042B2 (ja) 位置検知システム
US20130099092A1 (en) Device and method for determining position of object
JP2018085553A (ja) プロジェクターシステム
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger
JP6315127B2 (ja) 入力装置、空中像インタラクションシステム、及び入力方法
JP6512058B2 (ja) 投影装置、映像投影方法及び映像投影用コンピュータプログラム
JP2013191005A (ja) デジタイザ装置
US8963835B2 (en) Method for displaying an item on a display unit
US11644303B2 (en) Three-dimensional coordinate measuring instrument coupled to a camera having a diffractive optical element
EP3985484A1 (en) Calibration method, calibration device and control method for touchless gesture control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6607121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150