JP2013089987A - プロジェクター及び画像描画方法 - Google Patents

プロジェクター及び画像描画方法 Download PDF

Info

Publication number
JP2013089987A
JP2013089987A JP2011225605A JP2011225605A JP2013089987A JP 2013089987 A JP2013089987 A JP 2013089987A JP 2011225605 A JP2011225605 A JP 2011225605A JP 2011225605 A JP2011225605 A JP 2011225605A JP 2013089987 A JP2013089987 A JP 2013089987A
Authority
JP
Japan
Prior art keywords
image
identification information
recognition unit
drawing area
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011225605A
Other languages
English (en)
Other versions
JP2013089987A5 (ja
JP6008076B2 (ja
Inventor
Kazuki Nagai
数樹 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011225605A priority Critical patent/JP6008076B2/ja
Priority to US13/646,863 priority patent/US9678565B2/en
Publication of JP2013089987A publication Critical patent/JP2013089987A/ja
Publication of JP2013089987A5 publication Critical patent/JP2013089987A5/ja
Application granted granted Critical
Publication of JP6008076B2 publication Critical patent/JP6008076B2/ja
Priority to US15/599,742 priority patent/US20170255253A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】プロジェクターによって、筆記の操作に応じた所定の画像を投射面に表示できるようにする。
【解決手段】ユーザーは、位置決めマーク(M1、M2)と、キーワード(K1、K2)とをホワイトボード300に書き込む。これらの軌跡はデジタルカメラ(又はプロジェクターに備えられた撮影部)によって撮影される。プロジェクターは、位置決めマークとキーワードとをそれぞれ認識し、位置決めマークによって表される描画エリアにキーワードに対応付けられた画像(I1、I2)を描画する。
【選択図】図11

Description

本発明は、プロジェクターによりコンテンツに応じた画像を描画する技術に関する。
プロジェクターには、インタラクティブ機能を有するものがある。ここにおいて、インタラクティブ機能とは、プロジェクターにより投射されている元の画像に対して、ユーザーの筆記操作の軌跡に相当する文字などを重畳して描画することができる機能をいう(例えば、特許文献1参照)。
特開2011−2650号公報
特許文献1に記載された技術は、ポインティングデバイスの軌跡に応じた線を元画像に重畳した合成画像を表示するものである。このような技術を用いた場合、ユーザーは、手書きで描くには時間を要する画像(あるいは手書きでは表現できない画像)や、グラフのような正確さが求められる図を描画させようとした場合に、困難を来すことがある。
そこで、本発明は、プロジェクターによって、筆記での操作に応じた所定の画像を投射面に表示できるようにすることを目的とする。
本発明の一態様に係るプロジェクターは、投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識する認識部と、前記認識部により認識された前記画像を表す画像データを取得する取得部と、前記取得部により取得された前記画像データが表す前記画像を、前記投射面の前記認識部により認識された前記描画エリアに描画させるように制御する描画制御部とを備える構成を有する。
このプロジェクターによれば、筆記での操作に応じた所定の画像を投射面に表示することが可能である。
好ましい態様において、前記取得部は、前記画像データと当該画像データに対応付けられた識別情報とを取得し、前記認識部は、前記投射面において指定された描画エリアを前記軌跡に基づいて認識する位置認識部と、前記識別情報を前記軌跡に基づいて認識する識別情報認識部とを有し、前記描画制御部は、前記識別情報認識部により認識された前記識別情報に対応付けられた前記画像データが表す画像を、前記投射面の前記位置認識部により認識された前記描画エリアに描画させてもよい。
この態様によれば、識別情報に応じた画像を表示することが可能である。
別の好ましい態様において、前記識別情報が、あらかじめ決められたキーワードを含み、前記識別情報認識部は、前記軌跡に前記キーワードが含まれるか否かを判断して前記識別情報を認識してもよい。
この態様によれば、ユーザーは、キーワードを筆記することによって当該キーワードに応じた画像を表示させることが可能である。
さらに別の好ましい態様において、前記位置認識部は、前記描画エリアを複数認識し、前記識別情報認識部は、前記識別情報を複数認識し、前記描画制御部は、前記描画エリアと前記識別情報の位置、又は前記描画エリアと前記識別情報とが認識された順番に基づいて前記描画エリアと前記識別情報の対応関係を判断してもよい。
この態様によれば、複数の画像データが表す複数の画像のそれぞれを、所望の描画エリアに表示させることが可能である。
さらに別の好ましい態様において、前記識別情報が、前記描画エリアを指定する軌跡の色又は形状を表す情報を含み、前記識別情報認識部は、前記軌跡の色又は形状に基づいて前記識別情報を認識してもよい。
この態様によれば、前記描画エリアを指定する軌跡の色や形状によって表示対象の画像を区別することが可能である。
さらに別の好ましい態様において、前記認識部は、画像の再生を制御するための制御情報を前記軌跡に基づいて認識する制御情報認識部を有し、前記描画制御部は、前記制御情報認識部により認識された制御情報に従って画像の再生を制御してもよい。
この態様によれば、画像の再生態様を筆記の操作によって制御することが可能である。
さらに別の好ましい態様において、前記描画制御部は、前記認識部により認識される軌跡が所定の条件を満たす変化をした場合に、前記画像を更新してもよい。
この態様によれば、画像を書き換えたり消去したりすることが可能である。
本発明の他の態様に係る画像描画方法は、投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識し、前記認識された前記画像を表す画像データを取得し、前記取得された前記画像データが表す前記画像を、前記投射面の前記認識された前記描画エリアに描画するものである。
この画像描画方法によれば、筆記での操作に応じた所定の画像を投射面に表示することが可能である。
プロジェクションシステムの全体構成を示す図。 プロジェクターの構成を示すブロック図。 位置決めマークを例示する図。 位置決めマークを例示する図。 コンテンツリンクテーブルを例示する図。 プロジェクターが実行する処理を示すフローチャート。 認識処理を示すフローチャート。 描画エリアデータのデータ構造を示す図。 キーワードエリアデータのデータ構造を示す図。 描画処理を示すフローチャート。 ユーザーによる軌跡とインタラクティブ画像の表示例を示す図。 プロジェクターの構成を示すブロック図。 制御マークを例示する図。 プロジェクター及び情報処理装置の構成を示すブロック図。 プロジェクター及びデジタルカメラの構成を示すブロック図。
[第1実施形態]
図1は、本発明の一実施形態であるプロジェクションシステム10の全体構成を示す図である。プロジェクションシステム10は、いわゆるインタラクティブプロジェクションシステムであり、ユーザーが筆記した記号(文字や図形)の軌跡に応じた画像(静止画又は動画)を描画することができるシステムである。ユーザーは、例えば、学問を生徒に教える教師や、受講者に講義をする講師である。
プロジェクションシステム10は、プロジェクター100と、ホワイトボード300と、ペン400とを備える。ホワイトボード300は、プロジェクター100によって画像が投射される投射面として機能するとともに、ユーザーがペン400によって文字や図形を書き込むことができる板状の器具である。ペン400は、ホワイトボード300に色材(インクなど)を付着させて軌跡を描くための器具である。なお、ペン400は、後述するように、色が異なるものが複数あってもよい。また、ユーザーによる筆記は、ペン400に代えて、所定の文字や図形が刻印されたスタンプによって行われてもよい。
プロジェクター100は、ホワイトボード300に画像を投射して表示するための電子機器である。プロジェクター100に用いられる表示素子や光源は、特に限定されない。また、プロジェクター100の表示方式も特に限定されないが、ユーザーによる筆記を妨げたり、あるいは投射面にユーザーの影を多く生じさせたりしないよう、壁掛け用の短焦点型であることが望ましい。例えば、プロジェクター100は、図1に示すように、ホワイトボード300の上方から画像を投射するものであると望ましい。
また、プロジェクター100は、ホワイトボード300を撮影する機能を有している。プロジェクター100は、より詳細には、ユーザーによってホワイトボード300に対して筆記された軌跡を撮影する。この撮影機能は、動画を撮影する機能(すなわちデジタルビデオカメラに相当する機能)であることが望ましいが、所定のタイミングでホワイトボード300を繰り返し撮影することが可能であれば、動画ではなく静止画による撮影でも十分である。
図2は、プロジェクター100のより具体的な構成を示すブロック図である。プロジェクター100は、撮影部110と、認識部120と、第1取得部130と、第2取得部140と、記憶部150と、描画制御部160と、投射部170とを備える。
撮影部110は、投射面を撮影する手段である。撮影部110は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子と、撮像素子により供給される信号から画像データを生成して出力する画像処理回路とを備える。撮影部110は、画像データを認識部120に供給する。
認識部120は、ペン400によって書き込まれた記号の軌跡を認識する手段である。認識部120は、撮影部110から供給された画像データに基づいて、ユーザーにより投射面に対して筆記された記号の軌跡を認識する。なお、ここにおいて、記号とは、認識部120が認識可能な文字や図形をいう。ここでいう文字は、漢字、アルファベットなどに限らず、数字や符号もこれに該当する。認識部120は、これらの文字や所定の図形を認識する機能を有する。
第1取得部130は、元画像を表す第1コンテンツを取得する手段である。第1コンテンツは、元画像を表す画像データ(第1画像データ)を少なくとも含むデータである。これに対し、第2取得部140は、ユーザーが描いた軌跡に応じて表示される画像(以下「インタラクティブ画像」ともいう。)を表す第2コンテンツを取得する手段である。第2コンテンツは、インタラクティブ画像を表す画像データ(第2画像データ)を少なくとも含むデータである。
ここにおいて、コンテンツとは、投射面に投射される画像を少なくとも含むデータをいう。コンテンツは、例えば、静止画であればJPEG(Joint Photographic Experts Group)フォーマット、動画であればMPEG(Moving Picture Experts Group)−2フォーマットのデータである。また、元画像とは、ユーザーが投射面に筆記する前から投射されている画像のことであり、インタラクティブ画像とは、ユーザーの筆記に応じて元画像に重畳するように投射される画像のことである。
第1取得部130は、例えば、パーソナルコンピューターなどの外部装置と通信することにより、この外部装置から第1コンテンツを取得する。これに対し、第2取得部140は、記憶部150に記憶されている第2コンテンツと、当該コンテンツに対応付けられた識別情報とを取得する。記憶部150は、データを記憶する記憶媒体151(ハードディスク、フラッシュメモリーなど)を備え、上述した第2コンテンツと、第2コンテンツとその識別情報であるキーワードとの対応付けを記述したテーブル(以下「コンテンツリンクテーブル」という。)とを記憶している。
なお、第1コンテンツは、第2コンテンツと異なり、本発明において必須のコンテンツではない。すなわち、投射面には、元画像が投射されている状態でインタラクティブ画像が重なるように投射されてもよいが、元画像が投射されていない状態でインタラクティブ画像のみが投射されてもよい。したがって、第1取得部130も、本発明の実施に不可欠なものではない。
描画制御部160は、コンテンツに応じた画像の描画を制御する手段である。描画制御部160は、第1コンテンツと第2コンテンツの少なくともいずれかに基づき、元画像、インタラクティブ画像又はこれらを重畳した合成画像を投射するための画像信号を投射部170に供給する。描画制御部160は、インタラクティブ画像を含む画像を投射する場合には、認識部120による認識結果に応じて動作する。具体的には、描画制御部160は、認識部120による認識結果に応じて第2コンテンツを取得するとともに、インタラクティブ画像の描画位置や描画する際の倍率を計算し、その計算結果に従ってインタラクティブ画像を描画させる。
なお、認識部120、第1取得部130、第2取得部140及び描画制御部160は、CPU(Central Processing Unit)、メモリー、画像処理回路などによって実現可能である。これらは単一の動作主体(例えばCPU)によって動作するものであってもよいし、複数の動作主体の協働によって動作するものであってもよい。
投射部170は、画像を投射面に投射することにより表示する手段である。投射部170は、例えば、光源として機能するランプや、光源から射出された光を変調する光変調器として機能する液晶パネルを備え、描画制御部160から供給される画像信号に応じて変調した光を照射することにより、画像を投射面に投射する。ただし、投射部170の構成は、これに限らず、液晶以外の他の表示素子を用いたものであってもよいし、光の透過・反射のいずれを利用するものであってもよい。
また、認識部120は、より詳細には、位置認識部121と識別情報認識部122とを有する。位置認識部121は、インタラクティブ画像を描画すべき位置(以下「描画エリア」という。)をペン400による軌跡に基づいて認識する手段であり、識別情報認識部122は、描画すべきインタラクティブ画像をペン400による軌跡に基づいて認識する手段である。位置認識部121は、描画エリアを指定するための所定のマーク(以下「位置決めマーク」という。)をペン400による軌跡から認識することによって、描画エリアを認識する。また、識別情報認識部122は、ペン400による軌跡から後述するキーワードに相当する文字列を認識することによって、描画すべきインタラクティブ画像を認識する。識別情報認識部122による認識には、周知のOCR(Optical Character Recognition)技術が利用可能である。
認識部120は、具体的には、撮影部110により供給された画像データが表す画像を解析してペン400の軌跡に相当する画像を特定し、特定した画像が文字である場合には識別情報認識部122において認識を行い、特定した画像が文字でない場合には位置認識部121において認識を行う。より詳細には、例えば、認識部120は、画像を文字として認識できるか否かを最初に判断し、文字として認識できなかった場合に、当該画像が位置決めマークとして認識できるか否かを判断する。ただし、認識部120は、後述するように、まず位置決めマークを認識し、次いでキーワードを認識するものであってもよい。つまり、位置認識部121と識別情報認識部122とが認識を行う順序は、具体的なアルゴリズム次第で変更可能である。
図3は、位置決めマークの一例を示す図である。同図に示す位置決めマークM11は、描画エリアの境界を指定するための図形であり、この例においては、アルファベットの「L」のような図形の点p1の位置によって描画エリアの上端及び左端を定義し、点p2の位置によって描画エリアの下端及び右端を定義している。位置決めマークM11は、実際には手書きであるため、図示したように必ずしも完全な直線になるとは限らず、また角が直角になるとも限らない。位置認識部121は、ペン400による軌跡の形状をあらかじめ決められた位置決めマークの形状と比較し、これらが所定の割合以上一致する場合に、位置決めマークが書き込まれたと認識する。この認識には、周知のパターン認識技術を用いることができる。
図4は、位置決めマークの他の例を示す図である。位置決めマークM12は、長方形(又は正方形)の図形であり、この場合には当該図形の内側の全体が描画エリアとして認識される。また、位置決めマークM13は、円形の図形であり、この場合には当該図形の内側の全体か、あるいは当該図形に接する図中の破線A1、A2で示した長方形のいずれかが描画エリアとして認識される。
なお、位置決めマークは、単一の図形ではなく、複数の図形の組み合わせであってもよい。位置決めマークM14a、M14b、M14c、M14dは、破線で示す描画エリアA3をその頂点の位置によって示すものである。
このように、位置決めマークは、あらかじめ決められた図形であれば、どのような図形であってもよい。
図5は、コンテンツリンクテーブルの一例を示す図である。同図に示すように、コンテンツリンクテーブルは、第2コンテンツのファイルパスとキーワードとを関連付けたテーブルである。なお、ここでいうファイルパスは、第2コンテンツの所在を示す情報であるが、記憶媒体151のディレクトリー構造などによっては、単なるファイル名で代用することも可能である。
プロジェクションシステム10の構成は、以上のとおりである。この構成のもと、ユーザーは、口頭で説明をしたりホワイトボード300に記号を書き込んだりする。このとき、ユーザーは、ホワイトボード300に位置決めマークやキーワード以外の記号を書き込んでもよい。プロジェクター100は、適当なタイミングでホワイトボード300を撮影し、画像データを生成する。プロジェクター100は、生成した画像データを解析し、所定の条件が満たされると、インタラクティブ画像を投射面に描画する。なお、プロジェクター100は、事前に電源が投入されるなどして、動作可能な状態になっているものとする。
図6は、インタラクティブ画像の描画に係るプロジェクター100の処理を示すフローチャートである。この処理において、プロジェクター100は、まず、ホワイトボード300を撮影して画像データを生成し(ステップS1)、ユーザーによる軌跡から位置決めマーク又はキーワードを認識する認識処理を実行する(ステップS2)。続いて、プロジェクター100は、インタラクティブ画像を描画する描画処理を実行する(ステップS3)。その後、プロジェクター100は、描画を終了するか否かを判断し(ステップS4)、描画を終了しない場合には、ステップS1以降の処理を繰り返す。なお、ステップS4の判断は、例えば、プロジェクター100の電源がオフになるといった事象や、ユーザーによる特定の操作に基づいて行われる。
なお、画像を認識するにあたり、プロジェクター100が用いることができる座標系としては、画像データの画素を基準としたもの(あるいはホワイトボード300の座標を基準としたもの)とプロジェクター100が投射に用いる画素を基準としたものとが考えられる。プロジェクター100は、画像を比較するときの座標系がいずれかの座標系に統一さえされていれば、いずれの座標系を用いることも可能である。なお、本実施形態においては、ホワイトボード300の左右方向をX軸とし、上下方向をY軸とした2次元直交座標系が座標系に用いられる。
図7は、ステップS2の認識処理を具体的に示すフローチャートである。この認識処理において、プロジェクター100は、受信した画像データが表す画像中に新たに追加された軌跡が存在するか否かを判断する(ステップS21)。この判断は、受信した画像データのうちの最新のものと、当該最新の画像データよりも前に受信した画像データとの差分を抽出することで行われる。すなわち、プロジェクター100は、これら2つの画像データが表す画像に有意な差分がある場合には、当該差分を抽出し、これを新たに追加された軌跡とする。
次に、プロジェクター100は、このようにして抽出された軌跡(すなわち新たに追加された軌跡)を位置決めマークとして認識できるか否かを判断する(ステップS22)。このとき、プロジェクター100は、抽出された軌跡とあらかじめ決められた位置決めマークとを比較することにより、軌跡が位置決めマークに相当するか否かを判断する。
なお、位置決めマークは、その形状によっては、文字であると誤認識されるおそれがある。例えば、図3に示す位置決めマークM11は、アルファベットの「L」や、カタカナの「レ」に誤認識される可能性がある。また、図4に示す位置決めマークM12であれば、漢字の「口(くち)」や記号の「□(SHIFT_JISコード81A0番の四角)」に誤認識されるおそれがある。このような誤認識が行われないようにするためには、位置決めマークのサイズと文字(キーワード)のサイズとに差を設けることとし、所定の閾値以上のサイズの軌跡であれば位置決めマークであるとみなし、所定の閾値未満のサイズであれば文字である、といった規則を設定するようにすればよい。
ただし、文字のサイズは、習慣や好みなどによる個人差があるため、ユーザーによって異なり得る。したがって、ここにおける閾値は、ユーザーが各自で設定できるようになっていると望ましい。閾値を設定する手段は、例えば、プロジェクター100にボタンを設けてユーザーの操作を受け付けることで実現可能である。あるいは、閾値を設定する手段は、認識処理を実行する前にユーザーにあらかじめ1個又は数個の文字をホワイトボード300に記入させ、これを撮影した画像データに基づいて文字のサイズを決定し、この文字のサイズを基準にして閾値を(プロジェクター100側で)設定するものであってもよい。
このようにして位置決めマークを認識することができたら、プロジェクター100は、認識した位置決めマークに基づいて描画エリアデータを生成して記録する(ステップS23)。一方、位置決めマークを認識することができなかった場合、プロジェクター100は、ステップS23の処理をスキップ(省略)して次の処理を実行する。描画エリアデータは、描画エリアと、当該描画エリアに描画されるインタラクティブ画像とを関連付けるためのデータである。
図8は、描画エリアデータのデータ構造を示す図である。描画エリアデータは、描画エリアの座標と、当該描画エリアに対応するキーワードを表すキーワードエリアデータを参照するためのポインターとを対応付けたデータである。描画エリアの座標とは、例えば、描画エリアが長方形である場合に、その4個の頂点の座標のことである。ポインターは、キーワードエリアデータが記憶されているメモリー上の位置を表すデータである。なお、ポインターの初期値は“ヌル(null)”、すなわち何も定義されていない値とする。
また、図9は、キーワードエリアデータのデータ構造を示す図である。キーワードエリアデータは、キーワードが認識された領域(以下「キーワードエリア」という。)の座標と、キーワードとして認識された文字列とを対応付けたデータである。キーワードエリアとは、キーワードとして認識された文字列の全体を含むように定義された領域であり、典型的には長方形の領域である。キーワードエリアは、キーワードとして認識された文字列の実際のサイズに応じて適当に定義されるが、文字列のサイズに比して必要以上に大きくならないことが望ましい。
プロジェクター100は、このような描画エリアデータを生成し、又はこの処理をスキップすると、新たに追加された軌跡をキーワードとして認識できるか否かを判断する(ステップS24)。プロジェクター100は、キーワードを認識することができたら、キーワードエリアデータを生成して記録する(ステップS25)。また、プロジェクター100は、キーワードを認識することができなかったら、ステップS25の処理をスキップする。
その後、プロジェクター100は、生成及び記録された描画エリアデータの中に、ポインターの値が“ヌル”であるものが含まれているか否かを判断する(ステップS26)。プロジェクター100は、このような描画エリアデータがあれば、当該描画エリアデータにより表される描画エリアとの間で所定の条件を満たすキーワードを特定し、当該キーワードのキーワードエリアデータと当該描画エリアデータとをポインターによって対応付ける(ステップS27)。この結果、当該描画エリアデータのポインターの値は、“ヌル”から当該キーワードエリアデータの位置を表す値に変わる。なお、プロジェクター100は、描画エリアデータの数よりもキーワードエリアデータの数の方が多い場合には、ステップS27の処理を実行しなくてよい。
なお、ここでいう条件は、描画エリアとキーワードの対応関係を判断するためのものである。この条件は、描画エリアとキーワードエリアの相対的な位置や、描画エリアとキーワードエリアとが認識された順番に基づいて定められる。例えば、ある描画エリアに対応するキーワードは、当該描画エリアが認識された後で最初に認識されたキーワードであったり、当該描画エリアとの距離が最も近いキーワードであったりしてもよい。あるいは、“キーワードは、対応する描画エリアの左に記入する”といった規則をあらかじめ設けておけば、ある描画エリアに対応するキーワードは、当該描画エリアからみて所定の方向(左)において認識された文字列のうち、当該描画エリアとの距離が最も近いキーワードエリア内のキーワードとすることができる。なお、ここでいう距離は、描画エリアの中心とキーワードエリアの中心とを結んだ線分のことであってもよいし、これらのエリアの最短距離のことであってもよい。
認識処理は以上のとおりである。このような認識処理が実行されると、1又は複数の描画エリアデータとキーワードエリアデータとが生成及び記録される。プロジェクター100は、描画エリアデータやキーワードエリアデータをリスト化して一時的に記憶し、ステップS3の描画処理において、このリストを用いて第2コンテンツを読み出すことによりインタラクティブ画像を描画する。
図10は、ステップS3の描画処理を示すフローチャートである。この描画処理において、プロジェクター100は、描画エリアデータのリストにまだ参照していない描画エリアデータがあるか否かを判断し(ステップS31)、未参照の描画エリアデータがあれば、これを1つ読み出す(ステップS32)。また、プロジェクター100は、未参照の描画エリアデータがなければ、描画処理を終了する。
プロジェクター100は、読み出した描画エリアデータのポインターが“ヌル”を示しているか否かを判断する(ステップS33)。すなわち、このときプロジェクター100は、読み出した描画エリアデータにキーワードエリアデータが関連付けられているか否かを判断している。プロジェクター100は、ポインターの値が“ヌル”でなければ、その値を参照してキーワードエリアデータを読み出し、描画エリアとキーワードとを特定する(ステップS34)。さらに、プロジェクター100は、コンテンツリンクテーブルを参照し、ステップS34において特定したキーワードに関連付けられた第2コンテンツのファイルパスを特定し、第2コンテンツを読み出して取得する(ステップS35)。
そして、プロジェクター100は、ステップS35において取得した第2コンテンツが表すインタラクティブ画像を、ステップS34において特定した描画エリアに描画する(ステップS36)。このとき、プロジェクター100は、描画エリアのサイズとインタラクティブ画像のサイズとが異なっていれば、インタラクティブ画像の縮尺を描画エリアに合うように変換し、その倍率を異ならせて描画してもよい。また、プロジェクター100は、描画エリアの形状(例えば縦横比)とインタラクティブ画像の形状とが異なる場合には、描画エリア中の適当な位置にインタラクティブ画像を配置する。
インタラクティブ画像を所定の位置に描画したら、プロジェクター100は、ステップS32において読み出した描画エリアデータをリストから削除する(ステップS37)。この結果、描画エリアデータのリストからは、データが1つ減る。その後、プロジェクター100は、描画エリアデータのリストに未参照の描画エリアデータがあるか否かを判断し(ステップS38)、未参照の描画エリアデータがあれば、ステップS32以降の処理を繰り返す。一方、プロジェクター100は、未参照の描画エリアデータがなければ、描画処理を終了する。
このように認識処理(図7参照)及び描画処理(図10参照)を実行すると、第2コンテンツは、キーワードが対応付けられたものから順次描画されていくことになる。描画エリアデータのリストにはポインターの値が“ヌル”であるデータが削除されずに残り続けるが、当該データは、キーワードエリアデータが生成されて対応付けられることによって描画に供される。
図11は、ユーザーによる軌跡とインタラクティブ画像の表示例を示す図である。同図において、M1、M2は、それぞれ位置決めマークを表し、K1、K2は、それぞれ位置決めマークM1、M2に対応するキーワードを表す。また、I1、I2は、それぞれ位置決めマークM1とキーワードK1の組と位置決めマークM2とキーワードK1の組とに対応するインタラクティブ画像を表す。
以上のとおり、プロジェクションシステム10によれば、ユーザーによる筆記での操作によって、記憶媒体151に記憶されているコンテンツが表す画像を描画し、これを投射面に表示することが可能である。ユーザーは、位置決めマークとキーワードを書き込むという比較的簡単な操作によって、必要な画像を投射面に表示することが可能である。それゆえ、ユーザーは、手書きでは困難な緻密な画像や正確な画像であっても、筆記による操作によって比較的短時間で表示させることが可能である。
[第2実施形態]
本実施形態は、上述したインタラクティブ画像が動画である場合に特に好適な実施の形態である。本実施形態の特徴は、インタラクティブ画像の再生を制御することができる点にある。ここでいう再生の制御とは、動画であるインタラクティブ画像の再生を開始ないし停止したり、あるいは早送りや巻き戻しを行ったり、さらにはスローモーションで再生したりすることをいう。
なお、本実施形態の構成及び動作は、第1実施形態のそれらと多くの共通点を有している。そのため、以下に示す本実施形態の説明においては、第1実施形態と共通する部分の説明を適宜省略するものとする。また、本実施形態の説明において、第1実施形態と同一の符号を付して説明される構成要素は、その構成が第1実施形態と同様のものであることを意味する。
図12は、プロジェクター100aの構成を示すブロック図である。プロジェクター100aは、認識部120に代えて認識部120aを備える点において第1実施形態のプロジェクター100と相違する。認識部120aは、第1実施形態と同様の位置認識部121及び識別情報認識部122に加えて、制御情報認識部123を備える点において認識部120と相違する。なお、ホワイトボード300及びペン400の構成は、第1実施形態と同様である。
制御情報認識部123は、動画であるインタラクティブ画像の再生を制御するための制御情報をペン400による軌跡に基づいて認識する手段である。制御情報は、インタラクティブ画像の再生態様を示す情報である。制御情報には、インタラクティブ画像の再生の開始を指示する情報や、インタラクティブ画像の再生の停止を指示する情報など、複数の種類が存在する。これらの制御情報は、位置決めマークと同様に、所定の図形によって表現されている。この図形のことを、以下においては「制御マーク」という。ただし、制御情報は、図形ではなく記号(文字)によって表されてもよい。
図13は、制御マークの一例を示す図である。制御マークM21は、インタラクティブ画像の再生を停止する指示に相当するものであり、制御マークM22は、インタラクティブ画像の再生を開始する指示に相当するものである。また、制御マークM23は、再生されたインタラクティブ画像を巻戻す指示に相当するものであり、制御マークM24は、再生されているインタラクティブ画像を早送りする指示に相当するものである。
プロジェクター100aは、このような制御マークと制御情報とを対応付けたテーブルを記憶しており、このテーブルを参照することによってペン400の軌跡から制御情報を認識することができる。制御マークの位置は、投射面に動画が1つだけ表示される場合であれば、いかなる位置であってもよいが、投射面に動画が複数表示される場合であれば、それぞれの表示エリアの近傍の所定の位置であることが望ましい。制御マークとインタラクティブ画像の対応付けは、位置決めマークとインタラクティブ画像の対応付けと同様の要領で実現可能である。
制御マークの記入方法としては、以下の方法が挙げられる。例えば、インタラクティブ画像の再生を開始し、これを一旦停止させてから再生を再度開始する場合であれば、制御マークM22、M21、M22をこの順番で順次記入する方法を採用することができる。あるいは、ペン400の軌跡をイレイサー(ホワイトボード消し)で消去できる場合であれば、制御マークを記入することで制御情報を有効にし、制御マークを消去することで制御情報を無効にする方法を採用することもできる。この方法の具体例は、制御マークM22が書き込まれている状態で制御マークM24を追記すると、インタラクティブ画像の再生が早送りになり、この状態で制御マークM24のみを消去すると、早送りが解除されてインタラクティブ画像が元の速度で再生されるようになる、といったものである。
なお、本実施形態の制御情報は、上述した例に限らず、例えば、インタラクティブ画像の画質(輝度、彩度、コントラストなど)を制御するためのものであってもよい。また、図13に示した制御マークM21〜M24は、あくまでも一例であって、他の図形を用いることももちろん可能である。
また、本実施形態は、制御マークをユーザーが筆記するのではなく、制御マークに相当する画像をプロジェクター100aが描画する態様であってもよい。例えば、ユーザーが描画エリアを指定し、キーワードとして「動画制御」といった文字列を筆記すると、プロジェクター100aは、このキーワードを認識し、認識した描画エリアに制御マークに相当する画像を描画する。この場合、ユーザーが投射面に表示されている制御マークの中から所望のマークをペン400で指示し、プロジェクター100aが指示された位置を認識することによって、インタラクティブ画像の再生態様を指示することができる。なお、この場合の制御マークは、インタラクティブ画像の再生態様を指示するためのものではなく、元画像の再生態様を指示するためのものであってもよい。
さらに、本実施形態において、第2取得部140は、複数の入力端子を備え、描画制御部160は、この入力端子を介して入力される第1コンテンツに応じた画像を描画させるようにしてもよい。ここでいう入力端子は、例えば、S端子、VGA(Video Graphics Array)端子、HDMI(High-Definition Multimedia Interface)端子などである。すなわち、この場合のプロジェクター100aは、入力ソースを切り替えることが可能である。この場合において、プロジェクター100aは、ユーザーが描画エリアを指定し、キーワードとして「ソース切り替え」といった文字列を筆記すると、認識した描画エリアに入力ソースを切り替えるための画像(例えば、「ソース1」、「ソース2」といった各入力ソースを示す画像)を描画する。この場合、ユーザーが投射面に表示されている入力ソースの中から所望のソースをペン400で指示し、プロジェクター100aが指示された位置を認識することによって、元画像の再生態様を指示することができる。
[変形例]
本発明は、上述した実施形態に限らず、以下に例示するさまざまな態様でも実施可能である。また、本発明は、必要に応じて、以下に示す変形例を複数組み合わせた態様でも実施することができる。
(1)本発明は、第1コンテンツや第2コンテンツがあらかじめプロジェクター100に記憶されていることを要するものではない。例えば、プロジェクター100は、外部装置(Webサーバー、画像データベースなど)と通信可能に接続されており、この外部装置に記憶された第1コンテンツや第2コンテンツを取得する構成であってもよい。また、この場合において、プロジェクター100は、上述したキーワードを検索クエリーとして外部装置に送信し、第2コンテンツを検索結果として受信してもよい。
(2)本発明の識別情報は、上述したキーワードのように、コンテンツリンクテーブルによってファイルパスと関連付けられることを要するものではない。例えば、識別情報は、コンテンツのファイル名そのものであってもよいし、コンテンツにメタデータとして埋め込まれていてもよい。このような識別情報を用いた場合には、コンテンツリンクテーブルに相当するデータが不要である。
また、本発明の識別情報は、描画エリアを指定する軌跡(すなわち位置決めマーク)の色や形状を表す情報であってもよい。すなわち、識別情報は、キーワードやファイル名のような文字そのものを表す情報である必要はない。このような識別情報は、例えば、赤色の色材で定義された描画エリアにはあるコンテンツが対応し、緑色の色材で定義された描画エリアには別のコンテンツが対応するとか、図3の位置決めマークM11によって定義された描画エリアにはあるコンテンツが対応し、図4の位置決めマークM12によって定義された描画エリアには別のコンテンツが対応する、といった規則を記述したデータである。この場合、識別情報認識部122は、ユーザーにより書き込まれた軌跡の色や形状に基づいて識別情報を認識し、描画エリアとコンテンツとの対応関係を判断する。
なお、識別情報は、キーワードやファイル名を表す情報と位置決めマークの色や形状を表す情報の双方を含み、これらの組み合わせによってコンテンツを一意的に特定するように構成されていてもよい。
また、識別情報は、投射面に描画されるインタラクティブ画像が特定の単一の画像である場合や、あらかじめ決められた複数のインタラクティブ画像をあらかじめ決められた順番で投射面に描画する場合には、不要である。この場合、ユーザーは、筆記の操作で描画エリアを指定するだけでよく、描画すべき画像を指定する必要はない。
(3)描画制御部160は、認識部120により認識される軌跡が所定の条件を満たす変化をした場合に、インタラクティブ画像を更新する制御を行うことも可能である。ここでいう軌跡は、キーワードに相当する軌跡と位置決めマークに相当する軌跡のいずれであってもよい。また、ここでいう条件は、例えば、これらの軌跡が消去されたり、あるいは書き換えられたりすることに相当する。
例えば、描画制御部160は、キーワードに相当する軌跡と位置決めマークに相当する軌跡のいずれかが消去された場合に、これに対応するインタラクティブ画像を消去するようにしてもよい。あるいは、描画制御部160は、位置決めマークM11(図3参照)の直線を書き足して延伸した場合に、描画エリアを拡大し、インタラクティブ画像の縮尺を描画エリアのサイズに合わせて変更してインタラクティブ画像を再描画(すなわち拡大)してもよい。同様に、描画制御部160は、位置決めマークM11(図3参照)の直線の一部を消して短縮した場合には、描画エリアを縮小し、インタラクティブ画像の縮尺を描画エリアのサイズに合わせて変更してインタラクティブ画像を再描画(すなわち縮小)してもよい。
(4)投射面は、ホワイトボードである必要はなく、スクリーンや紙などであってもよい。また、軌跡の記入に用いられるペンは、色材を投射面に付着させるものである必要はなく、赤色光などの可視光線や赤外光を投射面に照射するものであってもよい。かかるペンは、ユーザーの操作に応じて、照射する光の波長が変更可能であるか、あるいは照射する光の波長が異なる複数本のペンがあってもよい。この場合、プロジェクター100は、ペンが照射する光の波長に対して感度を有し、照射された光に基づいて記号の軌跡を認識する。プロジェクター100は、この軌跡を投射面に描画することが望ましいが、軌跡の描画は必須ではない。
あるいは、本発明は、投射面にペン(又はそのペン先)の位置を検知する検知手段を備え、検知された位置に基づいて軌跡を認識する構成としてもよい。かかる検知手段は、例えば、投射面に対する圧力(筆圧)を検知するセンサーや、ペン先の位置を光学的に検知するセンサーである。
(5)本発明のキーワードは、位置決めマーク、制御マーク、キーワード以外の記号との区別をより明確にするために、特徴的な所定の記号を含むように構成されてもよい。例えば、本発明のキーワードは、その冒頭と末尾に「*(アスタリスク)」を付すものとし、「*答え1*」、「*答え2*」といった文字列としてもよい。このようにすれば、ユーザーが投射面にキーワード以外のさまざまな文字を記入する場合においても、キーワードを正確に認識することが可能である。
(6)上述した認識処理や描画処理は、プロジェクター単体の動作ではなく、プロジェクターと他の装置との協働によって実現されるものであってもよい。
図14は、本変形例の構成を示すブロック図である。同図において、図2と同一の符号が付された構成要素は、その構成が第1実施形態と同様であることを意味する。この例において、100bはプロジェクターであり、200aは情報処理装置である。
情報処理装置200aは、例えば、パーソナルコンピューター、携帯電話機、スマートフォンなどである。情報処理装置200aは、撮影部110、認識部120、第1取得部130、第2取得部140、記憶部150及び描画制御部160に加え、外部装置であるプロジェクター100bと通信する通信部210を備える。また、プロジェクター100bは、投射部170に加え、外部装置である情報処理装置200aと通信する通信部180を備える。情報処理装置200aは、通信部210を介して画像信号を送信し、プロジェクター100bは、通信部180を介して画像信号を受信する。なお、第1取得部130は、インターネットなどのネットワークを介して第1コンテンツ又は第2コンテンツを取得することや、記憶部150に記憶された第1コンテンツ又は第2コンテンツを取得することも可能である。
なお、記憶媒体151は、いわゆるUSB(Universal Serial Bus)メモリーやDVD(Digital Versatile Disc)のような、情報処理装置200aに対して着脱可能な記憶媒体であってもよい。この場合、情報処理装置200aは、記憶部150に代えて、記憶媒体151からデータを読み出す手段(USBポート、DVDドライブなど)を備えていればよい。さらに、記憶媒体151は、第2コンテンツだけでなく、第1コンテンツをも記憶していてもよい。なお、記憶媒体151が着脱可能であってもよいことは、第1実施形態及び第2実施形態においても同様に当てはまる。
(7)本発明のプロジェクターは、撮影機能を有しないものであってもよい。すなわち、本発明のプロジェクションシステムは、デジタルカメラ(デジタルスチルカメラ又はデジタルビデオカメラ)を別途備える構成であってもよい。
図15は、本変形例の構成を示すブロック図である。同図において、図2又は図14と同一の符号が付された構成要素は、その構成が第1実施形態と同様であることを意味する。この例において、100cはプロジェクターであり、200bはデジタルカメラである。
デジタルカメラ200bは、撮影部110と、外部装置であるプロジェクター100cと通信する通信部220とを備える。また、プロジェクター100cは、第1実施形態のプロジェクター100の構成において、撮影部110に代えて変形例6の通信部180を備える。デジタルカメラ200bとプロジェクター100cとは、通信部220、180を介して画像データを送受信する。なお、通信部220、180による通信は、無線通信と有線通信のいずれであってもよい。
さらに、本発明のプロジェクションシステムは、本変形例のデジタルカメラ200bと変形例6の情報処理装置200aとが一体に構成されたものであってもよい。つまり、本発明は、撮影機能を有しないプロジェクターと、撮影機能を有し、認識処理や描画処理を実行可能な情報処理装置とを備える構成であってもよい。かかる情報処理装置は、例えば、撮影機能付きのスマートフォンや、いわゆるタブレットPC(Personal Computer)である。
10…プロジェクションシステム、100、100a、100b、100c…プロジェクター、110…撮影部、120、120a…認識部、121…位置認識部、122…識別情報認識部、123…制御情報認識部、130…第1取得部、140…第2取得部、150…記憶部、151…記憶媒体、160…描画制御部、170…投射部、180…通信部、100c…情報処理装置、200a…情報処理装置、200b…デジタルカメラ、210、220…通信部、300…ホワイトボード、400…ペン

Claims (8)

  1. 投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識する認識部と、
    前記認識部により認識された前記画像を表す画像データを取得する取得部と、
    前記取得部により取得された前記画像データが表す前記画像を、前記投射面の前記認識部により認識された前記描画エリアに描画させるように制御する描画制御部と
    を備えることを特徴とするプロジェクター。
  2. 前記取得部は、前記画像データと当該画像データに対応付けられた識別情報とを取得し、
    前記認識部は、前記投射面において指定された描画エリアを前記軌跡に基づいて認識する位置認識部と、前記識別情報を前記軌跡に基づいて認識する識別情報認識部とを有し、
    前記描画制御部は、前記識別情報認識部により認識された前記識別情報に対応付けられた前記画像データが表す画像を、前記投射面の前記位置認識部により認識された前記描画エリアに描画させる
    ことを特徴とする請求項1に記載のプロジェクター。
  3. 前記識別情報が、あらかじめ決められたキーワードを含み、
    前記識別情報認識部は、前記軌跡に前記キーワードが含まれるか否かを判断して前記識別情報を認識する
    ことを特徴とする請求項2に記載のプロジェクター。
  4. 前記位置認識部は、前記描画エリアを複数認識し、
    前記識別情報認識部は、前記識別情報を複数認識し、
    前記描画制御部は、前記描画エリアと前記識別情報の位置、又は前記描画エリアと前記識別情報とが認識された順番に基づいて前記描画エリアと前記識別情報の対応関係を判断する
    ことを特徴とする請求項2又は3に記載のプロジェクター。
  5. 前記識別情報が、前記描画エリアを指定する軌跡の色又は形状を表す情報を含み、
    前記識別情報認識部は、前記軌跡の色又は形状に基づいて前記識別情報を認識する
    ことを特徴とする請求項2ないし4のいずれか1項に記載のプロジェクター。
  6. 前記認識部は、画像の再生を制御するための制御情報を前記軌跡に基づいて認識する制御情報認識部を有し、
    前記描画制御部は、前記制御情報認識部により認識された制御情報に従って画像の再生を制御する
    ことを特徴とする請求項1ないし5のいずれか1項に記載のプロジェクター。
  7. 前記描画制御部は、前記認識部により認識される軌跡が所定の条件を満たす変化をした場合に、前記画像を更新する
    ことを特徴とする請求項1ないし6のいずれか1項に記載のプロジェクター。
  8. 投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識し、
    前記認識された前記画像を表す画像データを取得し、
    前記取得された前記画像データが表す前記画像を、前記投射面の前記認識された前記描画エリアに描画する
    ことを特徴とする画像描画方法。
JP2011225605A 2011-10-13 2011-10-13 プロジェクター及び画像描画方法 Expired - Fee Related JP6008076B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011225605A JP6008076B2 (ja) 2011-10-13 2011-10-13 プロジェクター及び画像描画方法
US13/646,863 US9678565B2 (en) 2011-10-13 2012-10-08 Projector and image drawing method
US15/599,742 US20170255253A1 (en) 2011-10-13 2017-05-19 Projector and image drawing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011225605A JP6008076B2 (ja) 2011-10-13 2011-10-13 プロジェクター及び画像描画方法

Publications (3)

Publication Number Publication Date
JP2013089987A true JP2013089987A (ja) 2013-05-13
JP2013089987A5 JP2013089987A5 (ja) 2014-11-06
JP6008076B2 JP6008076B2 (ja) 2016-10-19

Family

ID=48085654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011225605A Expired - Fee Related JP6008076B2 (ja) 2011-10-13 2011-10-13 プロジェクター及び画像描画方法

Country Status (2)

Country Link
US (2) US9678565B2 (ja)
JP (1) JP6008076B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180410A (ja) * 2017-04-19 2018-11-15 東芝情報システム株式会社 プロジェクタシステム及びプロジェクタシステム用プログラム
JP2019004368A (ja) * 2017-06-16 2019-01-10 カシオ計算機株式会社 投影装置、投影システム、制御方法及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5741079B2 (ja) * 2011-03-09 2015-07-01 セイコーエプソン株式会社 画像生成装置およびプロジェクター
JP6151989B2 (ja) * 2013-06-28 2017-06-21 キヤノン株式会社 情報提示装置、情報提示システム、情報提示方法及びプログラム
TWI518574B (zh) * 2013-12-25 2016-01-21 光峰科技股份有限公司 互動式顯示系統及其輸入裝置
JP2016076175A (ja) * 2014-10-08 2016-05-12 キヤノン株式会社 情報処理装置
CN105632453B (zh) * 2014-11-19 2019-09-24 精工爱普生株式会社 显示装置、显示控制方法和显示系统
TWI562046B (en) * 2015-06-25 2016-12-11 Wistron Corp Optical touch apparatus and width detecting method thereof
DE102017212751A1 (de) * 2017-07-25 2019-01-31 Robert Bosch Gmbh Zeichenvorrichtung mit einer Projektionseinheit
CN110716678B (zh) * 2019-10-08 2022-09-23 江苏集萃有机光电技术研究所有限公司 一种显示画面的局部删除方法及处理系统、显示设备
JP2021099430A (ja) * 2019-12-23 2021-07-01 セイコーエプソン株式会社 表示装置の制御方法及び表示装置
JP2023007696A (ja) * 2021-07-02 2023-01-19 セイコーエプソン株式会社 画像処理方法および画像処理装置
JP2023017206A (ja) * 2021-07-26 2023-02-07 セイコーエプソン株式会社 プロジェクターの制御方法、及びプロジェクター

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160539A (ja) * 1994-12-08 1996-06-21 Nikon Corp 光黒板
JPH09231393A (ja) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd 命令入力装置
JP2008027080A (ja) * 2006-07-19 2008-02-07 Casio Comput Co Ltd プレゼンテーションシステム
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2009210625A (ja) * 2008-02-29 2009-09-17 Canon Inc 表示装置及び表示方法
JP2010139899A (ja) * 2008-12-15 2010-06-24 Seiko Epson Corp 投写システム、プロジェクター、プログラムおよび情報記憶媒体
JP2010139685A (ja) * 2008-12-11 2010-06-24 Seiko Epson Corp プロジェクター、プログラムおよび情報記憶媒体
JP2010182023A (ja) * 2009-02-04 2010-08-19 Fujifilm Corp 携帯機器および操作制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4964066A (en) * 1986-09-05 1990-10-16 Sharp Kabushiki Kaisha Device for editing and displaying data recorded on specialized sheets or records
US5528743A (en) * 1993-05-27 1996-06-18 Apple Computer, Inc. Method and apparatus for inserting text on a pen-based computer system
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
CA2354301A1 (en) * 2001-07-27 2003-01-27 Djamel Yahia Meddah Geometric hashing for model-based recognition of an object
WO2005096126A1 (ja) * 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha 画像入出力装置
JP5509689B2 (ja) 2009-06-18 2014-06-04 セイコーエプソン株式会社 プロジェクター
KR101972924B1 (ko) * 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
JP6286836B2 (ja) * 2013-03-04 2018-03-07 株式会社リコー 投影システム、投影装置、投影方法、及び投影プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160539A (ja) * 1994-12-08 1996-06-21 Nikon Corp 光黒板
JPH09231393A (ja) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd 命令入力装置
JP2008027080A (ja) * 2006-07-19 2008-02-07 Casio Comput Co Ltd プレゼンテーションシステム
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2009210625A (ja) * 2008-02-29 2009-09-17 Canon Inc 表示装置及び表示方法
JP2010139685A (ja) * 2008-12-11 2010-06-24 Seiko Epson Corp プロジェクター、プログラムおよび情報記憶媒体
JP2010139899A (ja) * 2008-12-15 2010-06-24 Seiko Epson Corp 投写システム、プロジェクター、プログラムおよび情報記憶媒体
JP2010182023A (ja) * 2009-02-04 2010-08-19 Fujifilm Corp 携帯機器および操作制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180410A (ja) * 2017-04-19 2018-11-15 東芝情報システム株式会社 プロジェクタシステム及びプロジェクタシステム用プログラム
JP2019004368A (ja) * 2017-06-16 2019-01-10 カシオ計算機株式会社 投影装置、投影システム、制御方法及びプログラム

Also Published As

Publication number Publication date
US20130093666A1 (en) 2013-04-18
JP6008076B2 (ja) 2016-10-19
US9678565B2 (en) 2017-06-13
US20170255253A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6008076B2 (ja) プロジェクター及び画像描画方法
US8827461B2 (en) Image generation device, projector, and image generation method
US9697431B2 (en) Mobile document capture assist for optimized text recognition
US20120320092A1 (en) Method and apparatus for exhibiting mixed reality based on print medium
CN103870233A (zh) 显示装置及其控制方法
US10382731B2 (en) Projector, multi-projection system, and method for controlling projector
CN102194136A (zh) 信息识别系统及其控制方法
CN108446047A (zh) 显示装置以及显示控制方法
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
JP2000259338A (ja) 入力システム、表示システム、プレゼンテーションシステム及び情報記憶媒体
TW201621618A (zh) 顯示裝置、投影機及顯示控制方法
CN103680225A (zh) 教学一体机及其多输入显示方法
JP2008117083A (ja) 座標指示装置、電子機器、座標指示方法、座標指示プログラム、及び座標指示プログラムを記録した記録媒体
JP5262888B2 (ja) 文書表示制御装置及びプログラム
US11431899B2 (en) Display method and display apparatus
JP2010154089A (ja) 会議システム
US20200333953A1 (en) Electronic device, method for driving electronic device, and method for controlling data recording application
JP6269227B2 (ja) 表示装置、プロジェクター、および表示制御方法
CN115834846A (zh) 图像显示方法及投影仪
TWI506483B (zh) 可調適色彩萃取之互動式書寫裝置及其操作方法
CN112055185A (zh) 动作方法和显示装置
JP4330637B2 (ja) 携帯機器
JP2020134922A (ja) プロジェクタシステム
JP2014203119A (ja) 入力装置、入力処理方法及びプログラム
JP2010145596A (ja) プロジェクター、プログラムおよび情報記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140922

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160609

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160830

R150 Certificate of patent or registration of utility model

Ref document number: 6008076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees