JP2013034168A - 画像投影装置ならびに画像投影制御装置およびプログラム - Google Patents

画像投影装置ならびに画像投影制御装置およびプログラム Download PDF

Info

Publication number
JP2013034168A
JP2013034168A JP2012011191A JP2012011191A JP2013034168A JP 2013034168 A JP2013034168 A JP 2013034168A JP 2012011191 A JP2012011191 A JP 2012011191A JP 2012011191 A JP2012011191 A JP 2012011191A JP 2013034168 A JP2013034168 A JP 2013034168A
Authority
JP
Japan
Prior art keywords
image
distance
projector
detected
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012011191A
Other languages
English (en)
Other versions
JP6007497B2 (ja
Inventor
Huber Jochen
ヒューバー ヨヒェン
Chunyuan Liao
リアオ チュニュアン
Qiong Liu
リュウ チョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2013034168A publication Critical patent/JP2013034168A/ja
Application granted granted Critical
Publication of JP6007497B2 publication Critical patent/JP6007497B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)

Abstract

【課題】対象表面とプロジェクターの間の相対位置及び向きの変化に応じて投影画像を変形させる。
【解決手段】対象物からの反射光量に対応する画像である色画像を取得するとともに、当該対象物との距離に対応する画像である距離画像を取得するカメラシステムと、前記対象物に画像を投影するプロジェクターと、以下の(1)ないし(3)の処理を行うプロセッサーとを備えることを特徴とする。(1)ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出し、(2)前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出し、(3)処理(1)で検出したジェスチャーに応じて異なる画像を、処理(2)で検出した表面の位置および向きに応じて変形し、これを当該表面に投影する。
【選択図】図10

Description

本発明は、画像を対象物に投影する画像投影装置ならびに画像投影制御装置およびプログラムに関する。
非特許文献1及び2には、文書中の文字列等の領域ではなく、文書全体またはページ全体をハイパーリンクに見立てた、紙文書とコンピュータの間のインタラクションに関する技術が記載されている。
非特許文献3には、カメラを用いて机の上の文書を認識し、電子文書との対応付けを行う技術が記載されている。
非特許文献4には、カメラを用いてOCRを行い、認識したテキストを転写する技術が記載されている。
非特許文献5には、カメラとプロジェクターを組み合わせた装置を使って、ユーザーのペン操作を入力とプロジェクターによる出力で、紙文書とのインタラクションを行う技術が記載されている。
非特許文献6には、紙文書とのインタラクションのために特別のマークを付加する技術が記載されている。
非特許文献7には、紙に書いたキャラクターをテーブルの上で動かすことで、アニメーションを作る技術が記載されている。
非特許文献8には、画像の局所特徴量を算出してそれを基に画像を比較する技術が記載されている。
非特許文献9および10には、画像の局所特徴量を用いて、格納してある画像とのマッチングを行う技術が記載されている。
ウィルソン(Wilson)、「どこでも再生:コンパクト・インタラクティブ・テーブルトップ・プロジェクション・ビジョン・システム(PlayAnywhere: a compact interactive tabletop projection−vision system)、UIST抄録(Proceedings of UIST)、2005年、p.83〜92 ケーン(Kane)ら、「焚き火:ハイブリッド・ラップトップ・テーブルトップ・インタラクションのためのノーマディック・システム(Bonfire: a nomadic system for hybrid laptop−tabletop interaction)、UIST抄録(Proceedings of UIST)、2009年、p.129〜138 キム(Kim)ら、「ビデオ・ベース・ドキュメント追跡:物理的デスクトップと電子的デスクトップとの統一(Video−based document tracking: unifying your physical and electronic desktops)」、UIST抄録(Proceedings of UIST)、2004年、p.99〜107 ニューマン(Newman)ら、「カムワークス:ペーパ・ソース・ドキュメントから効率的にキャプチャするためのビデオ・ベース・ツール(CamWorks: A Video−based Tool for Efficient Capture from Paper Source Documents)、IEEE マルチメディア・システム抄録(Proceedings of IEEE Multimedia System)、1999年、p.647〜653 ウェルナー(Wellner)、「デジタルデスク上のペーパとのインタラクション(Interacting with paper on the DigitalDesk)」、ACM通信(Communications of the ACM)、36(7)、1993年、p.1〜107 ソング(Song)ら、「ペンおよび空間感知モバイル・プロジェクタを用いたデジタル・ペーパのバイマニュアル・インタラクション(MouseLight:Bimanual Interactions on Digital Paper Using a Pen and a Spatially−aware Mobile Projector)、CHI抄録(Proceedings of CHI)、2010年 バーンズ(Barnes)ら、「ビデオ・パペット:切り絵アニメのための遂行的インタフェース(Video Puppetry: A Performative Interface for Cutout Animation)」、グラフィックに関するACMトランザクション(ACM Transaction on Graphics)、Vol.27、No.5、2008年 リウ(Liu)ら、「FITによる高精度・言語非依存ドキュメント検索(High Accuracy And Language Independent Document Retrieval With A Fast Invariant Transform)」、ICME抄録(Proceedings of ICME)、2009年 ヘア(Hare)ら、「マップスナッパー:モバイル・フォンのマップ 画像をマッチングするための効率的なアルゴリズム処理(MapSnapper: Engineering an Efficient Algorithm for Matching Images of Maps from Mobile Phones)」、マルチメディア・コンテンツ・アクセス抄録(Proceedings of Multimedia Content Access)、アルゴリズムおよびシステムII(Algorithms and Systems II)第6820巻、2008年、p.68200L.1〜68200L.11 リウ(Liu)ら、「埋め込みメディア・マーカ:関連メディアを示すペーパ上のマーク(Embedded Media Markers: Marks on Paper that Signify Associated Media)」、IUI抄録(Proceedings of IUI)、2010年、p.149〜158
対象表面に記載されたコンテンツに対するジェスチャーによって、当該コンテンツに関する電子的な操作を行った結果を、プロジェクターを用いて当該対象表面に投影する場合において、対象表面とプロジェクターの間の相対位置及び向きの変化したときに、従来技術は対応できなかった。
本発明は、対象表面とプロジェクターの間の相対位置及び向きの変化に応じて対象表面に投影された画像を変形させることができる、画像投影装置ならびに画像投影制御装置およびプログラムを提供することを目的とする。
本発明の第1の態様は、対象物からの反射光量に対応する画像である色画像を取得するとともに、当該対象物との距離に対応する画像である距離画像を取得するカメラシステムと、前記対象物に画像を投影するプロジェクターと、以下の(1)ないし(3)の処理を行うプロセッサーとを備えることを特徴とする。(1)ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出し、(2)前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出し、(3)処理(1)で検出したジェスチャーに応じて異なる画像を、処理(2)で検出した表面の位置および向きに応じて変形し、これを当該表面に投影する。
本発明の第2の態様は、外部のカメラから対象物の反射光量に対応する画像である色画像、および、当該対象物との距離に対応する画像である距離画像を取得する手段と、ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出する第1の検出手段と、前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出する第2の検出手段と第1の検出手段で検出したジェスチャーに応じて異なる画像を、第2の検出手段で検出した表面の位置および向きに応じて変形し、これを外部のプロジェクターに出力する出力手段と、を備えることを特徴とする。
本発明の第3の態様は、外部のカメラから対象物の反射光量に対応する画像である色画像、および、当該対象物との距離に対応する画像である距離画像を取得するステップと、ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出するステップと、前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出するステップと、検出したジェスチャーに応じて異なる画像を、検出した表面の位置および向きに応じて変形し、これを外部のプロジェクターに出力するステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、プロジェクターによる投影内容による誤検知をすることなく、対象表面の追跡が可能となる。
FACTの実装例を示している。 FACTの使用例を示している。 本発明の使用例を示している。 カメラ及びプロジェクターを備えた入出力装置に用いられるカメラの例を示している。 距離画像(depth image)の例を示している。 カメラによって得られた画像であって、距離画像を抽出する前のものを示している。 二値化した距離画像の例を示している。 本発明で実現可能な機能の例を示している。 本発明における処理の一例を示すフローチャートである。 対象表面の特定法の一例を示すフローチャートである。 本発明を実装するコンピュータシステムの例を示すブロック図である。 紙文書、カメラ、プロジェクター、電子文書の間の相対的な位置関係のマッピングを行う方法の一例を示している。
本発明の実施の形態を以下に説明するが、本実施形態は、本発明者が開発したFACTという技術(特願2011−003883として出願)を基にしている。ここで、FACTは、マーカー無しの紙文書を認識及び拡張するカメラ付きプロジェクタユニットである。また、これによって、ユーザーは、紙上の微細なコンテンツを選択することで、キーワード検索、ウェブ検索、マルチメディアアノテーション等のコンピュータの機能を実行することができる。FACTでは、紙文書を固定しておく必要は無く、紙の持つ本質的な柔軟性を損なうことがない。図1は、FACTの実装例を示している。FACTは、紙を使った対話型のシステム100である。このシステムは、カメラおよびプロジェクターを備えた入出力ユニット101、ノート型のコンピュータ102、機械読取のためのバーコードや標識の付されていない通常の紙文書103を利用する。
図2は、FACTの使用例を示している。FACTは、カメラとプロジェクターを備えた入出力ユニットを活用して、コンテンツに基づく画像認識および座標変換を行う。これによって、ユーザーのペンを操作する動作(ジェスチャー)によって指定された、紙文書中のコンテンツ(文章、印、アイコン、図、任煮の領域等)を認識し、コンピュータで処理できるようにするのである。例えば、紙文書中の単語によるキーワード検索を行う場合、ユーザーは、同図(a)に示すようにペン先201で検索対象とする単語202をポイント(指し示すこと)した上で、「キーワード検索」コマンドの起動を指示する。この入力を受けたシステムは、同図(b)に示すように、その紙文書の元となった電子文書を対象としてその単語を検索し、検索された単語203の紙文書中の位置をプロジェクターで特定の色の光を照射することによりハイライト表示するのである。同図(c)は、同図(b)において「3D」という単語を紙文書103においてハイライト表示した様子を示す拡大図である。
FACTは、紙文書に対応する文書画像に対してSIFT(Scale Invariant Feature Transrom)のような局所特徴量を算出し比較することで、対応する(元となった)電子文書を特定する。また、この局所特徴量の文書画像と電子文書との間の対応関係はまた、カメラ、プロジェクターおよび文書の間のホモグラフィック座標変換にも用いる。また、カメラで撮影した画像からのペン先の検出には、色情報を基準とした方法を用いる。紙文書上におけるペンの動き(ジェスチャー)は、同様のマウスポインターの操作に対応付けられる。この方法は、通常の紙文書に何らかの標識をつけたり、何らかの変更を加えたりする必要がない。
しかしながら、特願2011−003883に記載したFACTでは、カメラ、プロジェクターおよび紙文書が載っている平面それぞれの相対的位置は、一連の操作の間固定されていることが必要である。したがって、紙文書は固定された平面上に置かなければならず(例:テーブルの上)、また、カメラ及びプロジェクターを備えた入出力ユニットは、どこかに固定されていなければならない(例:本棚に固定)。すなわち、手に持った紙を使ってFACTの機能を使うことが出来ない。また、プロジェクターやカメラで入出力可能な領域の制限から、テーブル上における紙の位置すら限られたものになっている。
そこで、本発明の実施例においては、通常のRGBの色画像(色毎の光センサー(RGB等)で検出した画素毎の色情報を有する画像)に距離画像(depth image:各画素が対象物とセンサーとの間の距離情報を有する画像)を組み合わせて、紙文書の表面の認識および追跡を行う。
ここで、本実施例では、図3に示すような、3つの典型的なインタラクションの形態をサポートする。第1に、同図(a)に示すように、カメラ及びプロジェクターを備えた入出力ユニット301が固定されているが、紙文書303は固定されておらず自由な位置及び向き(テーブルの上に置いてあってもよいし、空中でユーザー302が保持していてもよい)にあることを前提としている形態である。ユーザー302は、紙文書303を動かしたり、また、紙文書303に対してポイントやタッチ等の手を使ったジェスチャーをすることによって操作を行うのである。第2に、同図(b)に示すように、入出力ユニット301を、固定された投影表面304(紙文書が貼ってある壁等)に向けてユーザーが保持し、これを動かすことによって、また体を使ったジェスチャーによって操作を行う形態である。第3に、同図(c)に示すように、一方の手で紙文書303を保持し、他方の手で入出力ユニット301を保持した上で、両者を両手の動きで連動させる形態である。
以下では、大きく分けて5つの技術を実施例を用いて説明する。(1)3次元空間における紙文書の認識及び姿勢推定、(2)紙文書を操作するための指によるジェスチャー、(3)情報媒体が混在する環境における体を使ったジェスチャー、(4)手持ち型のプロジェクターの利用、(5)両手持ちによる操作、の5つである。
本実施例におけるシステムでは、カメラからビデオフレームを取得し、その局所特徴量(例:SIFTやFIT)を用いて紙文書の特定を行う。この際に、紙文書に特殊なコードやマークを付加しておく必要は無い。本実施例のシステムでは、クアッドコア2.8GHZのCPUと4GBのRAMを搭載したコンピュータを用いて、640×480画素のフレームの認識処理を行ったところ、0.5fps程度での処理が可能であった。認識等を行っている最中に、ユーザーが紙文書をわざわざ高速で動かすことは想定しなくても良いと考えられるので、この処理スピードは許容可能な数字であろう。
各ビデオフレーム(色画像)と予め設定した紙文書モデルの間の局所特徴量の対応を検出することで、紙文書の3次元空間における姿勢の認識及び推定処理(3次元姿勢推定)を行うことができる。しかしながら、ビデオフレームの視覚的な特徴量(色情報等)のみを用いて姿勢の認識及び推定処理を行うことには、いくつか問題がある。
(1)現在知られている認識アルゴリズムは、文書画像の大きな射影歪み(perspective distortion)に対応できない。一方で、これは紙文書を空中に保持して取り扱う際には頻繁に生じる問題である。
(2)紙文書へのプロジェクターによる投影が、紙文書の局所特徴量を変えてしまうかも知れない。これによって、紙文書の認識及び姿勢推定に失敗することもある。この問題は、紙文書のコンテンツが少なく、結果として抽出できる特徴量が少ない場合に特に顕著である。紙の姿勢推定は、RGBセンサーの色情報による画像(色画像)からその頂点を検出することでも可能であるが、それには背景と紙の間に大きなコントラストの差があることが条件となる。
(3)特徴量抽出に係る計算が複雑で、これをリアルタイムで行えない可能性がある。その場合には、紙文書の姿勢推定がユーザーの紙を動かす動作に遅れてしまうことになる。
これらの問題を解決するために、マイクロソフト(登録商標)のKINECT(登録商標)から得られるような距離情報(depth information)を用いて、色情報による紙文書の認識処理及び追跡処理を補完する。
本システムは各シーンの距離画像を取得し、これを用いて3次元空間における(平らな)紙文書の姿勢を推定するのである。認識モジュールでの処理の前に、姿勢情報を用いて、色画像の射影歪みが少なくなるように補正することもできる。3次元姿勢推定には距離画像のみを用いる。距離画像は、文書の局所特徴量とは無関係である。本実施例の場合、距離画像の取得、およびこの距離画像からの紙の3次元姿勢推定は、60fps程度で行える。3次元姿勢推定及び文書認識に関しては、それぞれ別のスレッドで処理を行い、それぞれが独立して、紙文書・カメラ・プロジェクターを含む「世界」のモデルを更新する。
本実施例のシステムは、図4に示すように、距離画像の生成および通常の色画像の生成が可能なカメラシステム400と一体となって、または連携して処理を行うことが出来る。距離を検出するカメラ401(距離検出カメラ)は、例えば、赤外線の光源403から投影された構造化された赤外光(例えば格子縞の赤外光)の反射光のパターンの歪みを解析することで、対象までの距離を面状に計測することができる。その計測の結果が距離画像である。そして、この距離画像と、RGBカメラ402で撮影した色画像とを重ね合わせることで、色画像の各点が距離情報を有することになる。ここで、各点の距離情報を色で表すこともできる(以下、この画像をカラー距離画像という)。このように、3次元座標系にRGBカメラからの色情報をマッピングしたものが得られるので、これをカメラ・プロジェクター・紙文書が存在する現実の座標系に変換するのである。
なお、RGBカメラ402はまた、紙文書のコンテンツの特定や、特定された面における特徴量の検出に用いることも出来る。ユーザーが何らかの指示のための動き(ジェスチャー)をすると(例:ペンで単語をなぞって単語を指定)、RGBカメラ402が、特定された面上で検出されたコンテンツに関連するものとして、このジェスチャーを検出する。
図5は、距離画像とRGBカメラからの色画像とを組み合わせて、カラー距離画像500を作成した例を示している。ここでは、色がRGBカメラから対象物表面までの距離を表している。図5の例では、カメラから近い距離を赤で、遠い距離を青で、そして、その間の距離を両者の間の波長を持つ色で表している。この例では、赤い部分501は、青で表現されている背景502よりもRGBカメラに近いことを示している。
このシステムでは対象物が平面状でない場合であってもカラー距離画像の生成が可能ではあるが、本実施例では、対象すなわち紙文書が平面状である場合を前提とし、3次元空間中の平面としてモデル化する。この前提の下で、本システムは、紙文書に対応する面を検出及び特定して(例えば、紙の四つの頂点から定める)、これを追跡する。例えば、図6の画像600は、ユーザーが空中で持っている1枚の紙を表している。本システムでは、この紙の4つの頂点を検出する。ここで、この頂点の位置を示す丸印は、飽くまでも説明のためのものであってこのような画像が生成されるわけではない。また、必ずしも4つの頂点を検出する必要は無く、3つでも良いし、また検出するポイントが頂点である必要も無い。また、より多数の点までの距離から平面を求めてもよい。
また、本実施例では、環境光の変化による影響を受けにくいことから、距離画像を用いて紙の頂点を検出している。この検出においてはまず、背景のオブジェクトを切り捨てるべく、閾値以上の距離を有する点を除外する(背景として取り扱う)フィルタ処理を行う。
図7は、この閾値処理、およびいわゆるブロブ検出(blob detection)を適用した距離画像700の例を示している。ここでブロブ検出とは、周囲の画素値に対して大きい又は小さい画素値を有し且つ一定以上の大きさを持つ領域を検出することであり、一般に結果としての画像を二値化してブロブの部分とそうでない部分を区別するようにする。この例は、図6の画像に対して一定の閾値によるフィルタリング処理を行い、その結果に対してブロブ検出を行ったところ、対象物(この場合は紙)とこれを保持している腕とが距離画像700として残ったものである。
距離画像700を用いて紙の頂点を検出するアルゴリズムは以下の通りである。
(1)まず、弱い結合をしているオブジェクトの分割を行う。すなわち、画像中のオブジェクトの弱い結合を検出して、それを断ち切り、個別のオブジェクトに分割する。ここで、弱い結合とは、画像中の領域同士が、その領域に比べて細い部分で結合していることである。図7の例で言えば、紙と腕とがそれぞれ弱い結合をしている。この処理は、例えば以下の3つの基本的な画像処理で実現できる。まず、強いブラー処理(ぼかし処理)を行う。すると、弱い結合をしている部分の画素値が低い値(背景に近い値)となる。次に、閾値による2値化を行って、低い値となった結合部分を背景と同化させる。最後に、モルフォロジー演算のopeningとclosingを行って、オブジェクトの境界を明確にする。
(2)次に、対象オブジェクトの内部特徴点の検出を行う。ステップ(1)の結果画像は、オブジェクト同士が分離されてはいるものの、前段の画像処理によってその領域(およびその境界)が狭くなってしまっている。とはいえ、ブロブ検出を行うことで、この狭くなった領域を検出することができる。そこで、まずは回転不変な外接矩形を算出する。そして、この矩形の頂点を次の処理における入力(内部特徴点)として用いる。
(3)次に、内部特徴点の元の頂点への割り付けを行う。ステップ(2)で求めた内部特徴点を、図6で認識されたオブジェクトの輪郭を使って、元の(縮小されていない)オブジェクト(紙文書)の頂点に割り当てる。具体的には、外接矩形(すなわち内部特徴頂点)を、元の対象オブジェクトの頂点に近付けるように繰り返し拡張する。そして、両者の距離が予め定めた閾値以下となった場合に、紙の頂点が距離画像上で特定されたことになる。
このように特定された紙の頂点を、距離画像を用いてフレーム単位で追跡する。これは、ステップ(2)の回転不変な外接矩形算出に用いた処理と類似した方法で、対象オブジェクトの向きを推定することによって行う。この追跡結果に基づいて、画像を追跡対象の領域に、且つその対象の向きに合わせてリアルタイムに投影するのである。
紙文書が認識され3次元空間で追跡されると、本実施例のシステムは、ユーザーのジェスチャーによる操作の検出を始める。ユーザーの操作としては、例えば、ユーザーが人差し指を使って紙文書中の図をポイントし近くのディスプレイに表示させることや、地図上の領域の周りを囲むように指でなぞってその領域内のホテルを検索すること、等がある。このような指によるジェスチャーを検出するために、2つの技術が用いられる。ポイントの検出と、タッチ(接触)の検出である。
ポイントの検出は、距離画像ではなく(例えばRGBカメラからの)色画像を用いて行う。例えば、背景から指先やペンの色が識別可能であるという前提の下に、色画像から特定の色を検出することにより、ユーザーの指先やペン先の検出及び追跡を行うことができる。指先の検出においては、指の色として定めた一定の色の検出を行えばよい。また、ペン先の検出においては、予め取得しておいたペン先の画像から色相ヒストグラムの逆射影法を用いて検出すればよい。
タッチの検出は、指先の位置およびポイントされているオブジェクト表面が距離画像中で特定されると、平面を特定するのに必要な3点を、指先の周りからその表面上で選択する。この、指先と特定された平面との距離を計算することで、指先がオブジェクトの表面にタッチしているか否かを判定する。
本実施例のシステムはまた、前述のFACTと同様に、紙文書上においてポイントされたコンテンツを特定し、そのコンテンツに対するユーザーのジェスチャーを検出し、そのジェスチャーに対応した電子的な処理を行う。図8には、このジェスチャーによる選択操作の例を示した。ここで、ポインター801は文字列の選択操作を、アンダーライン802は楽譜の一部の選択操作を、ブラケット803およびバーティカルバー804は複数行に渡る文字列の選択操作を、ラッソ805は閉曲線による領域選択操作を、マーキー806は対角線の指定による矩形領域の選択操作を、パス807は開曲線による経路の選択操作を、そしてフリーフォーム808は任意形状の選択操作をそれぞれ表している。こうしてコンテンツが選択された後に、ユーザーによる他のジェスチャー(例えばコマンド選択メニューからのコマンド指定)を受けて、そのジェスチャーに対応する処理を選択された領域に対して適用する。
図12は、紙文書、カメラ、プロジェクター、電子文書の間の相対的な位置関係のマッピングを行う方法の一例を示す図である。ここでHrは、カメラの基準フレーム1236と電子文書1238との間のホモグラフィック変換(ホモグラフィ行列)を表す。これは、カメラ画像の特徴点と電子文書の特徴点との対応から求めることができる。これには、少なくとも4対以上の特徴点のペアが必要である。変換行列を求めるために、最小二乗法を用いることができる。このHrによって、カメラで検出された文書上のコンテンツやジェスチャーに用いる指先が電子文書1238の座標系にマッピングされる。次に、Hcは、対象表面を通る平面状に設定される基準フレームとカメラの基準フレームとのホモグラフィック変換である。これも、同様の4対以上の特徴点のペアの対応関係から求めることができる。Hpは、カメラの基準フレーム1236とプロジェクターの基準フレーム1248との間のホモグラフィック変換である。これも同様に4つ以上のペアの対応関係から求めることができる。
これら3つの変換行列をそれぞれの間の相対的位置関係として、リアルタイムで求めることで、紙文書、カメラ、プロジェクターおよび電子文書の間の座標の相互変換が可能となる。そして、この座標変換によって、対象表面の位置および向きに応じて投影すべき画像を変形させて、対象表面(紙文書)上に投影するのである。
本実施例の技術は、他のインタラクティブペーパーやデバイス(例えばディスプレイやプリンタ)と組み合わせることで、複合メディア環境を作ることができる。複合メディア環境においては、共に電子的インタラクション(双方向のコミュニケーション)が可能という意味で、紙と電子デバイスとが等価に扱われる。また、このような複数のデバイスにまたがったインタラクションには、体を使ったジェスチャーを検出するようにしても良い。このジェスチャーの例としては、メモ用紙上に描かれた絵をコピーしてディスプレイ上に表示させる、書籍の図をディスプレイに表示させたスライドにリンクさせる、印刷物を再度プリンターに転送してもう一部印刷する等が挙げられる。
複合メディア環境の概念はよく知られているが、本実施例のシステムは、通常の何のマークも付されていない紙文書に対する3次元空間における操作をサポートしているという点で、それら従来のシステムとは異なる。
本実施例はさらに別のシナリオにも適用可能である。すなわち、追跡対象の投影面が固定された紙文書(例えば、テーブルの上や壁上に固定されている)であり、入出力ユニット(カメラ及びプロジェクターを備える)の方が3次元空間で動く場合である。この場合においても本実施例が適用できる理由は、紙(より一般的には、プロジェクターの投影面)と入出力ユニットの間の、動的に変化する相対的な位置関係を特定して処理を行うという意味では、入出力ユニットが動く場合は紙の方が動く場合と技術的に変わりが無いからである。また、この場合、入出力ユニットのプロジェクターから領域選択用のカーソル(注目位置を示す記号。例えば矢印型。)を投影した上で、入出力ユニットそのものが動いたことによるそのカーソルの軌跡から選択範囲を特定し、その選択範囲に対して、上述のような何らかの操作を行うこともできる。例えば、壁に表示した地図の上で、入出力ユニットを動かし、カーソルの閉曲線の軌跡によって選択された範囲に対応する地図上の領域に存在するホテルを検索し、当該プロジェクターによってその位置を地図上に示すことが考えられる。
図9は、本実施例の処理の一例を示すフローチャートである。まず、プロジェクターによる映像の投影、および追跡の対象となる表面(対象表面)を特定する(901)。次に、カメラ(距離検出カメラ等)によって、その表面に関する3次元情報(距離、形状、向き等)を取得する(902)。この情報から、対象表面上に、当該表面に合わせて、向きや大さを調整した画像を投影する(903)。
図10は、対象表面を特定する処理(901)の詳細な方法の一例を示すフローチャートである。まず、距離検出カメラで取得した距離情報から距離画像を生成する(901−1)。次に、距離画像を解析して、弱い結合をしている要素を分離し、それぞれを対象表面の候補とする(901−2)。次に、先の分離処理で縮小されたそれぞれの対象表面の候補に関して、特徴点(内部特徴点)を特定する(901−3)。次に、内部特徴点を、縮小されていない対象表面の特徴点に割り当てる処理を行い、対象表面に対応する距離画像中の表面を対象表面として特定する(901−4)。そして、特定された距離画像中の対象表面を追跡する(901−5)。
ここで、対象表面の特徴点は、通常の四角い紙を検出する場合であれば、その4つの頂点を用いることができる。一方で、他の種類の表面を検出する場合には、その表面の形状に合わせた点を予め定義する必要がある。
図11は、本実施例を実装するコンピュータシステムの例を示すブロック図である。システム1000は、指示を実行するための作業を行うプロセッサー(処理手段)1002およびメモリ(記憶手段)1003を含むコンピュータ/サーバ・プラットフォーム1001を含む。「コンピュータ可読記憶媒体」は、たとえば、ディスク、半導体メモリなどの任意の有形の媒体であってよい。該コンピュータ記憶媒体はプロセッサ1002に実行のための指示を提供する際に使用される。さらに、コンピュータ・プラットフォーム1001は、キーボード、マウス、タッチ・デバイス、音声命令入力装置など、複数の入力デバイス(入力手段)1004からの入力を受信する。コンピュータ・プラットフォーム1001は、ポータブル・ハード・ディスク・ドライブ、光メディア(CD、DVD)、ディスク媒体、その他の任意の有形な媒体など、コンピュータが実行コードを読み取ることができる脱着可能な記憶デバイス(脱着可能記憶手段)1005にさらに接続されていてもよい。コンピュータ・プラットフォームはさらにインターネットもしくはローカル・パブリック・ネットワークもしくはローカル・プライベート・ネットワークのその他の構成要素に接続するネットワーク・リソース1006に接続していてもよい。ネットワーク・リソース1006は指示およびデータをネットワーク1007の遠隔位置からコンピュータ・プラットフォームに提供してもよい。ネットワーク・リソース1006への接続は、たとえば、802.11規格、ブルートゥース、ワイヤレス・プロトコル、セルラー・プロトコルなどのワイヤレス・プロトコルを介してもよいし、たとえば、金属ケーブルや光学繊維ケーブルなどの物理的な送信媒体を介してもよい。ネットワーク・リソースは、データや実行可能な指示を記憶する、コンピュータ・プラットフォーム1001とは別個の位置にある記憶デバイスを含んでもよい。コンピュータは、その他の指示およびユーザからの入力を要求し、ユーザへデータやその他の情報を出力するためのディスプレイ(表示手段)1008とインタラクションを行う。表示手段1008はユーザとのインタラクションを行うための入力手段として機能してもよい。

Claims (3)

  1. 対象物からの反射光量に対応する画像である色画像を取得するとともに、当該対象物との距離に対応する画像である距離画像を取得するカメラシステムと、
    前記対象物に画像を投影するプロジェクターと、
    プロセッサーと、を備え、
    前記プロセッサーは、
    (1)ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出し、
    (2)前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出し、
    (3)処理(1)で検出したジェスチャーに応じて異なる画像を、処理(2)で検出した表面の位置および向きに応じて変形し、これを当該表面に投影する、
    処理を行うことを特徴とする、画像投影装置。
  2. 外部のカメラから対象物の反射光量に対応する画像である色画像、および、当該対象物との距離に対応する画像である距離画像を取得する手段と、
    ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出する第1の検出手段と、
    前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出する第2の検出手段と、
    第1の検出手段で検出したジェスチャーに応じて異なる画像を、第2の検出手段で検出した表面の位置および向きに応じて変形し、これを外部のプロジェクターに出力する出力手段と、を備えることを特徴とする画像投影制御装置。
  3. 外部のカメラから対象物の反射光量に対応する画像である色画像、および、当該対象物との距離に対応する画像である距離画像を取得するステップと、
    ユーザーのジェスチャーを前記色画像及び距離画像の少なくとも一方から検出するステップと、
    前記色画像を用いずに前記距離画像から、画像を投影する対象物の表面の、プロジェクターに対する相対的な位置及び向きを検出するステップと、
    検出したジェスチャーに応じて異なる画像を、検出した表面の位置および向きに応じて変形し、これを外部のプロジェクターに出力するステップと、をコンピュータに実行させるためのプログラム。
JP2012011191A 2011-08-01 2012-01-23 画像投影装置ならびに画像投影制御装置およびプログラム Expired - Fee Related JP6007497B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/195,689 US9117274B2 (en) 2011-08-01 2011-08-01 System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
US13/195,689 2011-08-01

Publications (2)

Publication Number Publication Date
JP2013034168A true JP2013034168A (ja) 2013-02-14
JP6007497B2 JP6007497B2 (ja) 2016-10-12

Family

ID=47626677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012011191A Expired - Fee Related JP6007497B2 (ja) 2011-08-01 2012-01-23 画像投影装置ならびに画像投影制御装置およびプログラム

Country Status (2)

Country Link
US (1) US9117274B2 (ja)
JP (1) JP6007497B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014147863A1 (ja) * 2013-03-21 2014-09-25 日本電気株式会社 三次元情報計測・表示装置、三次元情報計測・表示方法及びプログラム
JP2014228945A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 領域指定装置
JP2014228794A (ja) * 2013-05-24 2014-12-08 三菱プレシジョン株式会社 鉄道シミュレータ、指差動作検出方法および鉄道シミュレーション方法
WO2015104919A1 (ja) * 2014-01-10 2015-07-16 コニカミノルタ株式会社 ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法
JP2015201064A (ja) * 2014-04-09 2015-11-12 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
JP2016509394A (ja) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム
JP2017010506A (ja) * 2015-06-18 2017-01-12 カシオ計算機株式会社 タッチ入力装置、投影装置、タッチ入力方法及びプログラム
US9665168B2 (en) 2014-05-02 2017-05-30 Canon Kabushiki Kaisha Image processing apparatus, information processing method, and program
JP2017199343A (ja) * 2016-04-25 2017-11-02 富士ゼロックス株式会社 卓上カメラ−プロジェクタシステムでの文書閲覧時における関連文書及び人物を可視化するための計算実行方法、プログラムおよび計算処理システム
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
KR20190079247A (ko) * 2017-12-27 2019-07-05 재단법인대구경북과학기술원 프로젝터, 투사 이미지 생성 방법 및 이미지 투사 시스템
WO2022003830A1 (ja) * 2020-06-30 2022-01-06 日本電気株式会社 制御装置、制御方法、及びコンピュータ可読媒体

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657694B2 (en) * 2012-10-15 2020-05-19 Tangible Play, Inc. Activity surface detection, display and enhancement of a virtual scene
KR102001218B1 (ko) * 2012-11-02 2019-07-17 삼성전자주식회사 객체와 관련된 정보 제공 방법 및 이를 위한 디바이스
CN103226388B (zh) * 2013-04-07 2016-05-04 华南理工大学 一种基于Kinect的手写方法
WO2015009276A1 (en) * 2013-07-15 2015-01-22 Intel Corporation Hands-free assistance
US20150058782A1 (en) * 2013-08-21 2015-02-26 Intel Corporation System and method for creating and interacting with a surface display
KR101710003B1 (ko) * 2014-01-07 2017-02-24 한국전자통신연구원 실시간 동적 비평면 프로젝션 장치 및 방법
US9875664B2 (en) 2014-06-02 2018-01-23 Xerox Corporation Virtual trainer optimizer method and system
WO2016053271A1 (en) 2014-09-30 2016-04-07 Hewlett-Packard Development Company L. P. Identification of an object on a touch-sensitive surface
US9600736B2 (en) * 2015-06-29 2017-03-21 International Business Machines Corporation Pose detection using depth camera
KR101835434B1 (ko) 2015-07-08 2018-03-09 고려대학교 산학협력단 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
CN105139407B (zh) * 2015-09-08 2018-08-21 江苏大学 一种基于Kinect传感器的颜色深度匹配植株识别方法
CN105243658B (zh) * 2015-09-08 2018-10-09 江苏大学 一种基于Kinect传感器的植株深度特征识别方法
CN105677032B (zh) * 2016-01-04 2018-10-26 广州华欣电子科技有限公司 基于深度传感设备的控制方法及装置
CN109416583B (zh) * 2016-07-05 2022-06-03 索尼公司 信息处理装置、信息处理方法及程序
CN106203390B (zh) * 2016-07-22 2019-09-24 杭州视氪科技有限公司 一种智能盲人辅助系统
CN106846350B (zh) * 2016-11-23 2019-09-24 杭州视氪科技有限公司 一种基于rgb-d相机和立体声的视障人士障碍物预警系统及方法
TWM547115U (zh) 2017-05-15 2017-08-11 Lips Corp 擴充式雙鏡頭裝置
US20190096297A1 (en) * 2017-09-28 2019-03-28 Benjamin Cary Vehicle mounted image projection system
CN108093232B (zh) * 2017-11-08 2019-09-13 歌尔科技有限公司 一种悬挂式投影仪分屏显示的方法、装置和悬挂式投影仪
CN108459670A (zh) * 2018-05-11 2018-08-28 吉林工程技术师范学院 一种具有投影键盘的工控计算机
CN108961390B (zh) * 2018-06-08 2020-05-19 华中科技大学 基于深度图的实时三维重建方法
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
US11532094B2 (en) * 2018-12-05 2022-12-20 Qualcomm Technologies, Inc. Systems and methods for three-dimensional pose determination
CN110209280B (zh) * 2019-06-05 2023-04-18 深圳前海达闼云端智能科技有限公司 一种应答方法、应答装置及存储介质
TWI714163B (zh) * 2019-07-11 2020-12-21 緯創資通股份有限公司 控制投影內容的方法及電子裝置
EP4003164A1 (de) 2019-08-30 2022-06-01 MetraLabs GmbH Neue Technologien und Systeme System zur erfassung von bewegungsabläufen und/oder vitalparametern einer person
US11086406B1 (en) 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US10802600B1 (en) * 2019-09-20 2020-10-13 Facebook Technologies, Llc Virtual interactions at a distance
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US10614340B1 (en) * 2019-09-23 2020-04-07 Mujin, Inc. Method and computing system for object identification
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
CN110942092B (zh) * 2019-11-21 2023-08-08 大庆思特传媒科技有限公司 一种图形图像识别方法及识别系统
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
JP1676286S (ja) * 2020-01-16 2021-01-12
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US12008717B2 (en) 2021-07-07 2024-06-11 Meta Platforms Technologies, Llc Artificial reality environment control through an artificial reality environment schema
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (ja) * 1993-04-30 1995-07-04 Rank Xerox Ltd 対話式複写装置
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
WO2011012168A1 (en) * 2009-07-31 2011-02-03 Lemoptix Sa Optical micro-projection system and projection method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
EP2050067A1 (en) * 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US20080158669A1 (en) * 2006-12-29 2008-07-03 3M Innovative Properties Company Projection screen apparatus for use with portable digital projectors
US7954953B2 (en) * 2008-07-30 2011-06-07 Microvision, Inc. Scanned beam overlay projection
US8223196B2 (en) * 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
US8751049B2 (en) * 2010-05-24 2014-06-10 Massachusetts Institute Of Technology Kinetic input/output
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US8619049B2 (en) * 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168949A (ja) * 1993-04-30 1995-07-04 Rank Xerox Ltd 対話式複写装置
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
WO2011012168A1 (en) * 2009-07-31 2011-02-03 Lemoptix Sa Optical micro-projection system and projection method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509394A (ja) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境における現実対象物上のデジタル情報を投影するための方法およびシステム
WO2014147863A1 (ja) * 2013-03-21 2014-09-25 日本電気株式会社 三次元情報計測・表示装置、三次元情報計測・表示方法及びプログラム
JP2014228945A (ja) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 領域指定装置
JP2014228794A (ja) * 2013-05-24 2014-12-08 三菱プレシジョン株式会社 鉄道シミュレータ、指差動作検出方法および鉄道シミュレーション方法
WO2015104919A1 (ja) * 2014-01-10 2015-07-16 コニカミノルタ株式会社 ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法
JP2015201064A (ja) * 2014-04-09 2015-11-12 株式会社東芝 情報処理装置、映像投影装置、情報処理方法及びプログラム
US9665168B2 (en) 2014-05-02 2017-05-30 Canon Kabushiki Kaisha Image processing apparatus, information processing method, and program
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
JP2017010506A (ja) * 2015-06-18 2017-01-12 カシオ計算機株式会社 タッチ入力装置、投影装置、タッチ入力方法及びプログラム
JP2017199343A (ja) * 2016-04-25 2017-11-02 富士ゼロックス株式会社 卓上カメラ−プロジェクタシステムでの文書閲覧時における関連文書及び人物を可視化するための計算実行方法、プログラムおよび計算処理システム
KR20190079247A (ko) * 2017-12-27 2019-07-05 재단법인대구경북과학기술원 프로젝터, 투사 이미지 생성 방법 및 이미지 투사 시스템
KR102002231B1 (ko) 2017-12-27 2019-07-19 재단법인대구경북과학기술원 프로젝터, 투사 이미지 생성 방법 및 이미지 투사 시스템
WO2022003830A1 (ja) * 2020-06-30 2022-01-06 日本電気株式会社 制御装置、制御方法、及びコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6007497B2 (ja) 2016-10-12
US20130033484A1 (en) 2013-02-07
US9117274B2 (en) 2015-08-25

Similar Documents

Publication Publication Date Title
JP6007497B2 (ja) 画像投影装置ならびに画像投影制御装置およびプログラム
JP5849394B2 (ja) 情報処理システム、情報処理方法、およびコンピュータプログラム
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6323040B2 (ja) 画像処理装置、画像処理方法およびプログラム
Lin et al. Ubii: Physical world interaction through augmented reality
JP5201096B2 (ja) 対話操作装置
US20120249422A1 (en) Interactive input system and method
US10691878B2 (en) Presenting associations of strokes with content
JP2014215752A (ja) 電子機器および手書きデータ処理方法
US20160140762A1 (en) Image processing device and image processing method
JP6467988B2 (ja) コンテンツとストロークとの関連付けのための装置、方法及びコンピュータプログラム
JP2013114467A (ja) 表示システム、表示方法およびプログラム
US9304618B2 (en) Creating a summary of content and stroke association
Riemann et al. Flowput: Environment-aware interactivity for tangible 3d objects
US20150138077A1 (en) Display system and display controll device
JP6207211B2 (ja) 情報処理装置及びその制御方法
Okamoto et al. Assembly assisted by augmented reality (A 3 R)
JP5456817B2 (ja) 表示制御装置、表示制御方法、情報表示システム及びプログラム
JP2016051468A (ja) 情報処理装置、その制御方法、及びプログラム
JP7374413B2 (ja) 現実物体に対するクラスタリングの可視化システム、可視化制御装置、可視化方法および可視化制御用プログラム
JP2016051191A (ja) 画像処理方法
KR20200137659A (ko) 변형 오브젝트를 제공하기 위한 증강현실 영상 제공 시스템 및 방법
US11789543B2 (en) Information processing apparatus and information processing method
JP6007496B2 (ja) 表示システム、表示プログラムおよび表示方法
JP2014194685A (ja) 画像処理装置、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R150 Certificate of patent or registration of utility model

Ref document number: 6007497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees