JP2013089987A - Projector and image drawing method - Google Patents

Projector and image drawing method Download PDF

Info

Publication number
JP2013089987A
JP2013089987A JP2011225605A JP2011225605A JP2013089987A JP 2013089987 A JP2013089987 A JP 2013089987A JP 2011225605 A JP2011225605 A JP 2011225605A JP 2011225605 A JP2011225605 A JP 2011225605A JP 2013089987 A JP2013089987 A JP 2013089987A
Authority
JP
Japan
Prior art keywords
image
identification information
recognition unit
drawing area
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011225605A
Other languages
Japanese (ja)
Other versions
JP6008076B2 (en
JP2013089987A5 (en
Inventor
Kazuki Nagai
数樹 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011225605A priority Critical patent/JP6008076B2/en
Priority to US13/646,863 priority patent/US9678565B2/en
Publication of JP2013089987A publication Critical patent/JP2013089987A/en
Publication of JP2013089987A5 publication Critical patent/JP2013089987A5/ja
Application granted granted Critical
Publication of JP6008076B2 publication Critical patent/JP6008076B2/en
Priority to US15/599,742 priority patent/US20170255253A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable display of a predetermined image corresponding to a writing operation on a projection surface using a projector.SOLUTION: A user writes positioning marks (M1, M2) and keywords (K1, K2) on a whiteboard 300. Their trajectories are photographed by a digital camera (or a photographing unit mounted on a projector). The projector recognizes the positioning marks and the keywords respectively, and draws images (I1, I2) associated with the keywords in a drawing area represented by the positioning marks.

Description

本発明は、プロジェクターによりコンテンツに応じた画像を描画する技術に関する。   The present invention relates to a technique for drawing an image according to content by a projector.

プロジェクターには、インタラクティブ機能を有するものがある。ここにおいて、インタラクティブ機能とは、プロジェクターにより投射されている元の画像に対して、ユーザーの筆記操作の軌跡に相当する文字などを重畳して描画することができる機能をいう(例えば、特許文献1参照)。   Some projectors have an interactive function. Here, the interactive function refers to a function capable of superimposing and drawing characters corresponding to a user's writing operation trajectory on an original image projected by a projector (for example, Patent Document 1). reference).

特開2011−2650号公報JP2011-2650A

特許文献1に記載された技術は、ポインティングデバイスの軌跡に応じた線を元画像に重畳した合成画像を表示するものである。このような技術を用いた場合、ユーザーは、手書きで描くには時間を要する画像(あるいは手書きでは表現できない画像)や、グラフのような正確さが求められる図を描画させようとした場合に、困難を来すことがある。
そこで、本発明は、プロジェクターによって、筆記での操作に応じた所定の画像を投射面に表示できるようにすることを目的とする。
The technique described in Patent Document 1 displays a composite image in which a line corresponding to a locus of a pointing device is superimposed on an original image. When using such a technology, when a user tries to draw an image that takes time to draw by handwriting (or an image that cannot be expressed by handwriting) or a figure that requires accuracy such as a graph, It can be difficult.
Therefore, an object of the present invention is to enable a projector to display a predetermined image corresponding to an operation in writing on a projection surface.

本発明の一態様に係るプロジェクターは、投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識する認識部と、前記認識部により認識された前記画像を表す画像データを取得する取得部と、前記取得部により取得された前記画像データが表す前記画像を、前記投射面の前記認識部により認識された前記描画エリアに描画させるように制御する描画制御部とを備える構成を有する。
このプロジェクターによれば、筆記での操作に応じた所定の画像を投射面に表示することが可能である。
A projector according to an aspect of the present invention recognizes an image to be drawn and a drawing area for drawing the image based on a trajectory of a symbol written on the projection surface, and the recognition unit recognizes the image to be drawn An acquisition unit that acquires image data representing the image that has been performed, and the image represented by the image data acquired by the acquisition unit is rendered in the drawing area recognized by the recognition unit of the projection surface And a drawing control unit to be controlled.
According to this projector, it is possible to display a predetermined image corresponding to the operation in writing on the projection surface.

好ましい態様において、前記取得部は、前記画像データと当該画像データに対応付けられた識別情報とを取得し、前記認識部は、前記投射面において指定された描画エリアを前記軌跡に基づいて認識する位置認識部と、前記識別情報を前記軌跡に基づいて認識する識別情報認識部とを有し、前記描画制御部は、前記識別情報認識部により認識された前記識別情報に対応付けられた前記画像データが表す画像を、前記投射面の前記位置認識部により認識された前記描画エリアに描画させてもよい。
この態様によれば、識別情報に応じた画像を表示することが可能である。
In a preferred aspect, the acquisition unit acquires the image data and identification information associated with the image data, and the recognition unit recognizes a drawing area designated on the projection surface based on the trajectory. A position recognition unit; and an identification information recognition unit that recognizes the identification information based on the trajectory, wherein the drawing control unit is associated with the identification information recognized by the identification information recognition unit. The image represented by the data may be drawn in the drawing area recognized by the position recognition unit on the projection surface.
According to this aspect, it is possible to display an image corresponding to the identification information.

別の好ましい態様において、前記識別情報が、あらかじめ決められたキーワードを含み、前記識別情報認識部は、前記軌跡に前記キーワードが含まれるか否かを判断して前記識別情報を認識してもよい。
この態様によれば、ユーザーは、キーワードを筆記することによって当該キーワードに応じた画像を表示させることが可能である。
In another preferred embodiment, the identification information includes a predetermined keyword, and the identification information recognition unit may recognize the identification information by determining whether the keyword is included in the trajectory. .
According to this aspect, the user can display an image corresponding to the keyword by writing the keyword.

さらに別の好ましい態様において、前記位置認識部は、前記描画エリアを複数認識し、前記識別情報認識部は、前記識別情報を複数認識し、前記描画制御部は、前記描画エリアと前記識別情報の位置、又は前記描画エリアと前記識別情報とが認識された順番に基づいて前記描画エリアと前記識別情報の対応関係を判断してもよい。
この態様によれば、複数の画像データが表す複数の画像のそれぞれを、所望の描画エリアに表示させることが可能である。
In still another preferred aspect, the position recognition unit recognizes a plurality of the drawing areas, the identification information recognition unit recognizes a plurality of the identification information, and the drawing control unit includes the drawing area and the identification information. The correspondence relationship between the drawing area and the identification information may be determined based on the position or the order in which the drawing area and the identification information are recognized.
According to this aspect, it is possible to display each of a plurality of images represented by a plurality of image data in a desired drawing area.

さらに別の好ましい態様において、前記識別情報が、前記描画エリアを指定する軌跡の色又は形状を表す情報を含み、前記識別情報認識部は、前記軌跡の色又は形状に基づいて前記識別情報を認識してもよい。
この態様によれば、前記描画エリアを指定する軌跡の色や形状によって表示対象の画像を区別することが可能である。
In still another preferred aspect, the identification information includes information indicating a color or shape of a locus that designates the drawing area, and the identification information recognition unit recognizes the identification information based on the color or shape of the locus. May be.
According to this aspect, it is possible to distinguish the image to be displayed based on the color or shape of the locus that designates the drawing area.

さらに別の好ましい態様において、前記認識部は、画像の再生を制御するための制御情報を前記軌跡に基づいて認識する制御情報認識部を有し、前記描画制御部は、前記制御情報認識部により認識された制御情報に従って画像の再生を制御してもよい。
この態様によれば、画像の再生態様を筆記の操作によって制御することが可能である。
In still another preferred aspect, the recognition unit includes a control information recognition unit that recognizes control information for controlling image reproduction based on the trajectory, and the drawing control unit is controlled by the control information recognition unit. Image reproduction may be controlled in accordance with the recognized control information.
According to this aspect, it is possible to control the image reproduction mode by a writing operation.

さらに別の好ましい態様において、前記描画制御部は、前記認識部により認識される軌跡が所定の条件を満たす変化をした場合に、前記画像を更新してもよい。
この態様によれば、画像を書き換えたり消去したりすることが可能である。
In still another preferred aspect, the drawing control unit may update the image when a locus recognized by the recognition unit changes to satisfy a predetermined condition.
According to this aspect, it is possible to rewrite or erase an image.

本発明の他の態様に係る画像描画方法は、投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識し、前記認識された前記画像を表す画像データを取得し、前記取得された前記画像データが表す前記画像を、前記投射面の前記認識された前記描画エリアに描画するものである。
この画像描画方法によれば、筆記での操作に応じた所定の画像を投射面に表示することが可能である。
The image drawing method according to another aspect of the present invention recognizes an image to be drawn and a drawing area for drawing the image based on a locus of a symbol written on the projection surface, and the recognized Image data representing an image is acquired, and the image represented by the acquired image data is drawn in the recognized drawing area of the projection surface.
According to this image drawing method, it is possible to display a predetermined image corresponding to the operation in writing on the projection surface.

プロジェクションシステムの全体構成を示す図。The figure which shows the whole structure of a projection system. プロジェクターの構成を示すブロック図。The block diagram which shows the structure of a projector. 位置決めマークを例示する図。The figure which illustrates a positioning mark. 位置決めマークを例示する図。The figure which illustrates a positioning mark. コンテンツリンクテーブルを例示する図。The figure which illustrates a content link table. プロジェクターが実行する処理を示すフローチャート。The flowchart which shows the process which a projector performs. 認識処理を示すフローチャート。The flowchart which shows a recognition process. 描画エリアデータのデータ構造を示す図。The figure which shows the data structure of drawing area data. キーワードエリアデータのデータ構造を示す図。The figure which shows the data structure of keyword area data. 描画処理を示すフローチャート。The flowchart which shows a drawing process. ユーザーによる軌跡とインタラクティブ画像の表示例を示す図。The figure which shows the display example of the locus | trajectory by a user and an interactive image. プロジェクターの構成を示すブロック図。The block diagram which shows the structure of a projector. 制御マークを例示する図。The figure which illustrates a control mark. プロジェクター及び情報処理装置の構成を示すブロック図。The block diagram which shows the structure of a projector and information processing apparatus. プロジェクター及びデジタルカメラの構成を示すブロック図。The block diagram which shows the structure of a projector and a digital camera.

[第1実施形態]
図1は、本発明の一実施形態であるプロジェクションシステム10の全体構成を示す図である。プロジェクションシステム10は、いわゆるインタラクティブプロジェクションシステムであり、ユーザーが筆記した記号(文字や図形)の軌跡に応じた画像(静止画又は動画)を描画することができるシステムである。ユーザーは、例えば、学問を生徒に教える教師や、受講者に講義をする講師である。
[First Embodiment]
FIG. 1 is a diagram showing an overall configuration of a projection system 10 according to an embodiment of the present invention. The projection system 10 is a so-called interactive projection system, and is a system that can draw an image (still image or moving image) according to the locus of a symbol (character or graphic) written by a user. The user is, for example, a teacher who teaches students to study or a lecturer who gives lectures to students.

プロジェクションシステム10は、プロジェクター100と、ホワイトボード300と、ペン400とを備える。ホワイトボード300は、プロジェクター100によって画像が投射される投射面として機能するとともに、ユーザーがペン400によって文字や図形を書き込むことができる板状の器具である。ペン400は、ホワイトボード300に色材(インクなど)を付着させて軌跡を描くための器具である。なお、ペン400は、後述するように、色が異なるものが複数あってもよい。また、ユーザーによる筆記は、ペン400に代えて、所定の文字や図形が刻印されたスタンプによって行われてもよい。   The projection system 10 includes a projector 100, a whiteboard 300, and a pen 400. The whiteboard 300 functions as a projection surface on which an image is projected by the projector 100 and is a plate-like instrument on which a user can write characters and figures with the pen 400. The pen 400 is an instrument for drawing a locus by attaching a color material (ink or the like) to the whiteboard 300. Note that there may be a plurality of pens 400 having different colors, as will be described later. Further, the writing by the user may be performed by a stamp in which predetermined characters and figures are engraved instead of the pen 400.

プロジェクター100は、ホワイトボード300に画像を投射して表示するための電子機器である。プロジェクター100に用いられる表示素子や光源は、特に限定されない。また、プロジェクター100の表示方式も特に限定されないが、ユーザーによる筆記を妨げたり、あるいは投射面にユーザーの影を多く生じさせたりしないよう、壁掛け用の短焦点型であることが望ましい。例えば、プロジェクター100は、図1に示すように、ホワイトボード300の上方から画像を投射するものであると望ましい。   The projector 100 is an electronic device for projecting and displaying an image on the whiteboard 300. A display element and a light source used for the projector 100 are not particularly limited. Although the display method of the projector 100 is not particularly limited, it is preferably a short-focus type for hanging on the wall so as not to prevent writing by the user or to cause a lot of user shadow on the projection surface. For example, the projector 100 desirably projects an image from above the whiteboard 300 as shown in FIG.

また、プロジェクター100は、ホワイトボード300を撮影する機能を有している。プロジェクター100は、より詳細には、ユーザーによってホワイトボード300に対して筆記された軌跡を撮影する。この撮影機能は、動画を撮影する機能(すなわちデジタルビデオカメラに相当する機能)であることが望ましいが、所定のタイミングでホワイトボード300を繰り返し撮影することが可能であれば、動画ではなく静止画による撮影でも十分である。   Further, the projector 100 has a function of photographing the whiteboard 300. More specifically, the projector 100 captures a trajectory written on the whiteboard 300 by the user. This shooting function is desirably a function for shooting a moving image (that is, a function equivalent to a digital video camera). However, if the whiteboard 300 can be repeatedly shot at a predetermined timing, a still image instead of a moving image is used. Shooting with is also sufficient.

図2は、プロジェクター100のより具体的な構成を示すブロック図である。プロジェクター100は、撮影部110と、認識部120と、第1取得部130と、第2取得部140と、記憶部150と、描画制御部160と、投射部170とを備える。   FIG. 2 is a block diagram showing a more specific configuration of the projector 100. The projector 100 includes an imaging unit 110, a recognition unit 120, a first acquisition unit 130, a second acquisition unit 140, a storage unit 150, a drawing control unit 160, and a projection unit 170.

撮影部110は、投射面を撮影する手段である。撮影部110は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子と、撮像素子により供給される信号から画像データを生成して出力する画像処理回路とを備える。撮影部110は、画像データを認識部120に供給する。   The imaging unit 110 is a unit that images the projection surface. The imaging unit 110 includes an image sensor such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor, and an image processing circuit that generates and outputs image data from a signal supplied by the image sensor. Prepare. The imaging unit 110 supplies the image data to the recognition unit 120.

認識部120は、ペン400によって書き込まれた記号の軌跡を認識する手段である。認識部120は、撮影部110から供給された画像データに基づいて、ユーザーにより投射面に対して筆記された記号の軌跡を認識する。なお、ここにおいて、記号とは、認識部120が認識可能な文字や図形をいう。ここでいう文字は、漢字、アルファベットなどに限らず、数字や符号もこれに該当する。認識部120は、これらの文字や所定の図形を認識する機能を有する。   The recognizing unit 120 is means for recognizing the locus of the symbol written by the pen 400. The recognizing unit 120 recognizes the trajectory of the symbol written on the projection surface by the user based on the image data supplied from the photographing unit 110. Here, the symbol refers to a character or a figure that can be recognized by the recognition unit 120. The characters here are not limited to kanji and alphabets, but numbers and symbols also correspond to this. The recognition unit 120 has a function of recognizing these characters and predetermined figures.

第1取得部130は、元画像を表す第1コンテンツを取得する手段である。第1コンテンツは、元画像を表す画像データ(第1画像データ)を少なくとも含むデータである。これに対し、第2取得部140は、ユーザーが描いた軌跡に応じて表示される画像(以下「インタラクティブ画像」ともいう。)を表す第2コンテンツを取得する手段である。第2コンテンツは、インタラクティブ画像を表す画像データ(第2画像データ)を少なくとも含むデータである。   The first acquisition unit 130 is means for acquiring first content representing the original image. The first content is data including at least image data representing the original image (first image data). On the other hand, the second acquisition unit 140 is means for acquiring second content representing an image (hereinafter, also referred to as “interactive image”) displayed in accordance with a locus drawn by the user. The second content is data including at least image data representing the interactive image (second image data).

ここにおいて、コンテンツとは、投射面に投射される画像を少なくとも含むデータをいう。コンテンツは、例えば、静止画であればJPEG(Joint Photographic Experts Group)フォーマット、動画であればMPEG(Moving Picture Experts Group)−2フォーマットのデータである。また、元画像とは、ユーザーが投射面に筆記する前から投射されている画像のことであり、インタラクティブ画像とは、ユーザーの筆記に応じて元画像に重畳するように投射される画像のことである。   Here, the content refers to data including at least an image projected on the projection surface. The content is, for example, data in JPEG (Joint Photographic Experts Group) format for still images and MPEG (Moving Picture Experts Group) -2 format for moving images. The original image is an image projected before the user writes on the projection surface, and the interactive image is an image projected so as to be superimposed on the original image according to the user's writing. It is.

第1取得部130は、例えば、パーソナルコンピューターなどの外部装置と通信することにより、この外部装置から第1コンテンツを取得する。これに対し、第2取得部140は、記憶部150に記憶されている第2コンテンツと、当該コンテンツに対応付けられた識別情報とを取得する。記憶部150は、データを記憶する記憶媒体151(ハードディスク、フラッシュメモリーなど)を備え、上述した第2コンテンツと、第2コンテンツとその識別情報であるキーワードとの対応付けを記述したテーブル(以下「コンテンツリンクテーブル」という。)とを記憶している。   The first acquisition unit 130 acquires the first content from the external device by communicating with the external device such as a personal computer, for example. On the other hand, the second acquisition unit 140 acquires the second content stored in the storage unit 150 and identification information associated with the content. The storage unit 150 includes a storage medium 151 (such as a hard disk or a flash memory) that stores data, and a table (hereinafter referred to as “the second content” described above and a correspondence between the second content and a keyword that is identification information thereof. Content link table ").

なお、第1コンテンツは、第2コンテンツと異なり、本発明において必須のコンテンツではない。すなわち、投射面には、元画像が投射されている状態でインタラクティブ画像が重なるように投射されてもよいが、元画像が投射されていない状態でインタラクティブ画像のみが投射されてもよい。したがって、第1取得部130も、本発明の実施に不可欠なものではない。   Unlike the second content, the first content is not essential content in the present invention. In other words, the interactive image may be projected onto the projection surface so that the interactive image overlaps with the original image being projected, but only the interactive image may be projected while the original image is not projected. Therefore, the first acquisition unit 130 is not essential for the implementation of the present invention.

描画制御部160は、コンテンツに応じた画像の描画を制御する手段である。描画制御部160は、第1コンテンツと第2コンテンツの少なくともいずれかに基づき、元画像、インタラクティブ画像又はこれらを重畳した合成画像を投射するための画像信号を投射部170に供給する。描画制御部160は、インタラクティブ画像を含む画像を投射する場合には、認識部120による認識結果に応じて動作する。具体的には、描画制御部160は、認識部120による認識結果に応じて第2コンテンツを取得するとともに、インタラクティブ画像の描画位置や描画する際の倍率を計算し、その計算結果に従ってインタラクティブ画像を描画させる。   The drawing control unit 160 is a unit that controls drawing of an image according to content. The drawing control unit 160 supplies the projection unit 170 with an image signal for projecting an original image, an interactive image, or a composite image obtained by superimposing these based on at least one of the first content and the second content. The drawing control unit 160 operates according to the recognition result by the recognition unit 120 when projecting an image including an interactive image. Specifically, the drawing control unit 160 acquires the second content according to the recognition result by the recognition unit 120, calculates the drawing position of the interactive image and the magnification at the time of drawing, and displays the interactive image according to the calculation result. Let it draw.

なお、認識部120、第1取得部130、第2取得部140及び描画制御部160は、CPU(Central Processing Unit)、メモリー、画像処理回路などによって実現可能である。これらは単一の動作主体(例えばCPU)によって動作するものであってもよいし、複数の動作主体の協働によって動作するものであってもよい。   The recognition unit 120, the first acquisition unit 130, the second acquisition unit 140, and the drawing control unit 160 can be realized by a CPU (Central Processing Unit), a memory, an image processing circuit, and the like. These may be operated by a single operating entity (for example, CPU), or may be operated by cooperation of a plurality of operating entities.

投射部170は、画像を投射面に投射することにより表示する手段である。投射部170は、例えば、光源として機能するランプや、光源から射出された光を変調する光変調器として機能する液晶パネルを備え、描画制御部160から供給される画像信号に応じて変調した光を照射することにより、画像を投射面に投射する。ただし、投射部170の構成は、これに限らず、液晶以外の他の表示素子を用いたものであってもよいし、光の透過・反射のいずれを利用するものであってもよい。   The projection unit 170 is a means for displaying an image by projecting it onto a projection surface. The projection unit 170 includes, for example, a lamp that functions as a light source and a liquid crystal panel that functions as an optical modulator that modulates light emitted from the light source, and light modulated in accordance with an image signal supplied from the drawing control unit 160. Is projected onto the projection surface. However, the configuration of the projection unit 170 is not limited to this, and a display device other than the liquid crystal may be used, or either light transmission or reflection may be used.

また、認識部120は、より詳細には、位置認識部121と識別情報認識部122とを有する。位置認識部121は、インタラクティブ画像を描画すべき位置(以下「描画エリア」という。)をペン400による軌跡に基づいて認識する手段であり、識別情報認識部122は、描画すべきインタラクティブ画像をペン400による軌跡に基づいて認識する手段である。位置認識部121は、描画エリアを指定するための所定のマーク(以下「位置決めマーク」という。)をペン400による軌跡から認識することによって、描画エリアを認識する。また、識別情報認識部122は、ペン400による軌跡から後述するキーワードに相当する文字列を認識することによって、描画すべきインタラクティブ画像を認識する。識別情報認識部122による認識には、周知のOCR(Optical Character Recognition)技術が利用可能である。   In more detail, the recognition unit 120 includes a position recognition unit 121 and an identification information recognition unit 122. The position recognition unit 121 is a means for recognizing a position where an interactive image is to be drawn (hereinafter referred to as a “drawing area”) based on a trajectory by the pen 400, and the identification information recognition unit 122 reads the interactive image to be drawn by the pen. It is a means for recognizing based on the trajectory 400. The position recognition unit 121 recognizes the drawing area by recognizing a predetermined mark (hereinafter referred to as “positioning mark”) for designating the drawing area from the locus of the pen 400. Further, the identification information recognition unit 122 recognizes an interactive image to be drawn by recognizing a character string corresponding to a keyword to be described later from the locus of the pen 400. For the recognition by the identification information recognition unit 122, a well-known OCR (Optical Character Recognition) technique can be used.

認識部120は、具体的には、撮影部110により供給された画像データが表す画像を解析してペン400の軌跡に相当する画像を特定し、特定した画像が文字である場合には識別情報認識部122において認識を行い、特定した画像が文字でない場合には位置認識部121において認識を行う。より詳細には、例えば、認識部120は、画像を文字として認識できるか否かを最初に判断し、文字として認識できなかった場合に、当該画像が位置決めマークとして認識できるか否かを判断する。ただし、認識部120は、後述するように、まず位置決めマークを認識し、次いでキーワードを認識するものであってもよい。つまり、位置認識部121と識別情報認識部122とが認識を行う順序は、具体的なアルゴリズム次第で変更可能である。   Specifically, the recognizing unit 120 analyzes an image represented by the image data supplied from the photographing unit 110 to identify an image corresponding to the trajectory of the pen 400. If the identified image is a character, identification information is identified. Recognition is performed by the recognition unit 122. If the identified image is not a character, the position recognition unit 121 performs recognition. More specifically, for example, the recognition unit 120 first determines whether or not the image can be recognized as a character, and determines whether or not the image can be recognized as a positioning mark when the image cannot be recognized as a character. . However, the recognition unit 120 may first recognize a positioning mark and then recognize a keyword, as will be described later. That is, the order in which the position recognition unit 121 and the identification information recognition unit 122 perform recognition can be changed depending on a specific algorithm.

図3は、位置決めマークの一例を示す図である。同図に示す位置決めマークM11は、描画エリアの境界を指定するための図形であり、この例においては、アルファベットの「L」のような図形の点p1の位置によって描画エリアの上端及び左端を定義し、点p2の位置によって描画エリアの下端及び右端を定義している。位置決めマークM11は、実際には手書きであるため、図示したように必ずしも完全な直線になるとは限らず、また角が直角になるとも限らない。位置認識部121は、ペン400による軌跡の形状をあらかじめ決められた位置決めマークの形状と比較し、これらが所定の割合以上一致する場合に、位置決めマークが書き込まれたと認識する。この認識には、周知のパターン認識技術を用いることができる。   FIG. 3 is a diagram illustrating an example of a positioning mark. The positioning mark M11 shown in the figure is a figure for designating the boundary of the drawing area. In this example, the upper end and the left end of the drawing area are defined by the position of the point p1 of the figure such as “L” in the alphabet. The lower end and the right end of the drawing area are defined by the position of the point p2. Since the positioning mark M11 is actually handwritten, it is not always a perfect straight line as shown in the figure, and the corners are not necessarily a right angle. The position recognizing unit 121 compares the shape of the locus by the pen 400 with a predetermined shape of the positioning mark, and recognizes that the positioning mark has been written when they match a predetermined ratio or more. A known pattern recognition technique can be used for this recognition.

図4は、位置決めマークの他の例を示す図である。位置決めマークM12は、長方形(又は正方形)の図形であり、この場合には当該図形の内側の全体が描画エリアとして認識される。また、位置決めマークM13は、円形の図形であり、この場合には当該図形の内側の全体か、あるいは当該図形に接する図中の破線A1、A2で示した長方形のいずれかが描画エリアとして認識される。
なお、位置決めマークは、単一の図形ではなく、複数の図形の組み合わせであってもよい。位置決めマークM14a、M14b、M14c、M14dは、破線で示す描画エリアA3をその頂点の位置によって示すものである。
このように、位置決めマークは、あらかじめ決められた図形であれば、どのような図形であってもよい。
FIG. 4 is a diagram illustrating another example of the positioning mark. The positioning mark M12 is a rectangular (or square) graphic, and in this case, the entire inside of the graphic is recognized as a drawing area. Further, the positioning mark M13 is a circular figure, and in this case, either the entire inside of the figure or the rectangles indicated by the broken lines A1 and A2 in the drawing in contact with the figure is recognized as the drawing area. The
The positioning mark may be a combination of a plurality of figures instead of a single figure. The positioning marks M14a, M14b, M14c, and M14d indicate the drawing area A3 indicated by a broken line by the position of the vertex.
As described above, the positioning mark may be any figure as long as it is a predetermined figure.

図5は、コンテンツリンクテーブルの一例を示す図である。同図に示すように、コンテンツリンクテーブルは、第2コンテンツのファイルパスとキーワードとを関連付けたテーブルである。なお、ここでいうファイルパスは、第2コンテンツの所在を示す情報であるが、記憶媒体151のディレクトリー構造などによっては、単なるファイル名で代用することも可能である。   FIG. 5 is a diagram illustrating an example of a content link table. As shown in the figure, the content link table is a table in which the file path of the second content and the keyword are associated with each other. The file path here is information indicating the location of the second content. However, depending on the directory structure of the storage medium 151, a simple file name may be used instead.

プロジェクションシステム10の構成は、以上のとおりである。この構成のもと、ユーザーは、口頭で説明をしたりホワイトボード300に記号を書き込んだりする。このとき、ユーザーは、ホワイトボード300に位置決めマークやキーワード以外の記号を書き込んでもよい。プロジェクター100は、適当なタイミングでホワイトボード300を撮影し、画像データを生成する。プロジェクター100は、生成した画像データを解析し、所定の条件が満たされると、インタラクティブ画像を投射面に描画する。なお、プロジェクター100は、事前に電源が投入されるなどして、動作可能な状態になっているものとする。   The configuration of the projection system 10 is as described above. Under this configuration, the user makes an oral explanation and writes a symbol on the whiteboard 300. At this time, the user may write symbols other than the positioning marks and keywords on the whiteboard 300. The projector 100 captures the whiteboard 300 at an appropriate timing and generates image data. The projector 100 analyzes the generated image data, and draws an interactive image on the projection surface when a predetermined condition is satisfied. It is assumed that the projector 100 is in an operable state, for example, by turning on the power in advance.

図6は、インタラクティブ画像の描画に係るプロジェクター100の処理を示すフローチャートである。この処理において、プロジェクター100は、まず、ホワイトボード300を撮影して画像データを生成し(ステップS1)、ユーザーによる軌跡から位置決めマーク又はキーワードを認識する認識処理を実行する(ステップS2)。続いて、プロジェクター100は、インタラクティブ画像を描画する描画処理を実行する(ステップS3)。その後、プロジェクター100は、描画を終了するか否かを判断し(ステップS4)、描画を終了しない場合には、ステップS1以降の処理を繰り返す。なお、ステップS4の判断は、例えば、プロジェクター100の電源がオフになるといった事象や、ユーザーによる特定の操作に基づいて行われる。   FIG. 6 is a flowchart showing processing of the projector 100 related to drawing of an interactive image. In this process, the projector 100 first shoots the whiteboard 300 to generate image data (step S1), and executes a recognition process for recognizing the positioning mark or keyword from the locus by the user (step S2). Subsequently, the projector 100 executes a drawing process for drawing an interactive image (step S3). Thereafter, the projector 100 determines whether or not drawing is to be ended (step S4). If drawing is not to be ended, the processing from step S1 is repeated. The determination in step S4 is performed based on, for example, an event that the power of the projector 100 is turned off or a specific operation by the user.

なお、画像を認識するにあたり、プロジェクター100が用いることができる座標系としては、画像データの画素を基準としたもの(あるいはホワイトボード300の座標を基準としたもの)とプロジェクター100が投射に用いる画素を基準としたものとが考えられる。プロジェクター100は、画像を比較するときの座標系がいずれかの座標系に統一さえされていれば、いずれの座標系を用いることも可能である。なお、本実施形態においては、ホワイトボード300の左右方向をX軸とし、上下方向をY軸とした2次元直交座標系が座標系に用いられる。   Note that, when recognizing an image, the coordinate system that can be used by the projector 100 includes a pixel based on image data (or a coordinate based on the whiteboard 300) and a pixel used by the projector 100 for projection. Is considered to be based on The projector 100 can use any coordinate system as long as the coordinate system for comparing images is unified with any one of the coordinate systems. In the present embodiment, a two-dimensional orthogonal coordinate system in which the horizontal direction of the whiteboard 300 is the X axis and the vertical direction is the Y axis is used for the coordinate system.

図7は、ステップS2の認識処理を具体的に示すフローチャートである。この認識処理において、プロジェクター100は、受信した画像データが表す画像中に新たに追加された軌跡が存在するか否かを判断する(ステップS21)。この判断は、受信した画像データのうちの最新のものと、当該最新の画像データよりも前に受信した画像データとの差分を抽出することで行われる。すなわち、プロジェクター100は、これら2つの画像データが表す画像に有意な差分がある場合には、当該差分を抽出し、これを新たに追加された軌跡とする。   FIG. 7 is a flowchart specifically showing the recognition processing in step S2. In this recognition process, the projector 100 determines whether or not a newly added locus exists in the image represented by the received image data (step S21). This determination is performed by extracting the difference between the latest image data received and the image data received before the latest image data. That is, when there is a significant difference between the images represented by these two image data, the projector 100 extracts the difference and sets this as a newly added locus.

次に、プロジェクター100は、このようにして抽出された軌跡(すなわち新たに追加された軌跡)を位置決めマークとして認識できるか否かを判断する(ステップS22)。このとき、プロジェクター100は、抽出された軌跡とあらかじめ決められた位置決めマークとを比較することにより、軌跡が位置決めマークに相当するか否かを判断する。   Next, the projector 100 determines whether or not the trajectory extracted in this way (that is, a newly added trajectory) can be recognized as a positioning mark (step S22). At this time, the projector 100 compares the extracted trajectory with a predetermined positioning mark to determine whether the trajectory corresponds to the positioning mark.

なお、位置決めマークは、その形状によっては、文字であると誤認識されるおそれがある。例えば、図3に示す位置決めマークM11は、アルファベットの「L」や、カタカナの「レ」に誤認識される可能性がある。また、図4に示す位置決めマークM12であれば、漢字の「口(くち)」や記号の「□(SHIFT_JISコード81A0番の四角)」に誤認識されるおそれがある。このような誤認識が行われないようにするためには、位置決めマークのサイズと文字(キーワード)のサイズとに差を設けることとし、所定の閾値以上のサイズの軌跡であれば位置決めマークであるとみなし、所定の閾値未満のサイズであれば文字である、といった規則を設定するようにすればよい。   The positioning mark may be erroneously recognized as a character depending on its shape. For example, the positioning mark M11 shown in FIG. 3 may be erroneously recognized as an alphabet “L” or a katakana “Le”. Further, in the case of the positioning mark M12 shown in FIG. 4, there is a possibility that the kanji “mouth” or the symbol “□ (SHIFT_JIS code 81A0 square)” may be erroneously recognized. In order to prevent such erroneous recognition, a difference is provided between the size of the positioning mark and the size of the character (keyword). Therefore, a rule may be set such that a character is smaller than a predetermined threshold.

ただし、文字のサイズは、習慣や好みなどによる個人差があるため、ユーザーによって異なり得る。したがって、ここにおける閾値は、ユーザーが各自で設定できるようになっていると望ましい。閾値を設定する手段は、例えば、プロジェクター100にボタンを設けてユーザーの操作を受け付けることで実現可能である。あるいは、閾値を設定する手段は、認識処理を実行する前にユーザーにあらかじめ1個又は数個の文字をホワイトボード300に記入させ、これを撮影した画像データに基づいて文字のサイズを決定し、この文字のサイズを基準にして閾値を(プロジェクター100側で)設定するものであってもよい。   However, the size of characters may vary depending on the user because there are individual differences depending on habits and preferences. Therefore, it is desirable that the threshold value here can be set by each user. The means for setting the threshold can be realized, for example, by providing a button on the projector 100 and receiving a user operation. Alternatively, the means for setting the threshold causes the user to enter one or several characters in advance on the whiteboard 300 before executing the recognition process, and determines the character size based on the image data obtained by capturing the character, A threshold value may be set (on the projector 100 side) based on the size of the character.

このようにして位置決めマークを認識することができたら、プロジェクター100は、認識した位置決めマークに基づいて描画エリアデータを生成して記録する(ステップS23)。一方、位置決めマークを認識することができなかった場合、プロジェクター100は、ステップS23の処理をスキップ(省略)して次の処理を実行する。描画エリアデータは、描画エリアと、当該描画エリアに描画されるインタラクティブ画像とを関連付けるためのデータである。   If the positioning mark can be recognized in this way, the projector 100 generates and records drawing area data based on the recognized positioning mark (step S23). On the other hand, when the positioning mark cannot be recognized, the projector 100 skips (omits) the process of step S23 and executes the next process. The drawing area data is data for associating the drawing area with an interactive image drawn in the drawing area.

図8は、描画エリアデータのデータ構造を示す図である。描画エリアデータは、描画エリアの座標と、当該描画エリアに対応するキーワードを表すキーワードエリアデータを参照するためのポインターとを対応付けたデータである。描画エリアの座標とは、例えば、描画エリアが長方形である場合に、その4個の頂点の座標のことである。ポインターは、キーワードエリアデータが記憶されているメモリー上の位置を表すデータである。なお、ポインターの初期値は“ヌル(null)”、すなわち何も定義されていない値とする。   FIG. 8 is a diagram illustrating a data structure of the drawing area data. The drawing area data is data in which the coordinates of the drawing area are associated with a pointer for referring to keyword area data representing a keyword corresponding to the drawing area. The coordinates of the drawing area are, for example, the coordinates of the four vertices when the drawing area is a rectangle. The pointer is data representing the position on the memory where the keyword area data is stored. Note that the initial value of the pointer is “null”, that is, nothing is defined.

また、図9は、キーワードエリアデータのデータ構造を示す図である。キーワードエリアデータは、キーワードが認識された領域(以下「キーワードエリア」という。)の座標と、キーワードとして認識された文字列とを対応付けたデータである。キーワードエリアとは、キーワードとして認識された文字列の全体を含むように定義された領域であり、典型的には長方形の領域である。キーワードエリアは、キーワードとして認識された文字列の実際のサイズに応じて適当に定義されるが、文字列のサイズに比して必要以上に大きくならないことが望ましい。   FIG. 9 shows the data structure of keyword area data. The keyword area data is data in which the coordinates of the area where the keyword is recognized (hereinafter referred to as “keyword area”) and the character string recognized as the keyword are associated with each other. The keyword area is an area defined to include the entire character string recognized as a keyword, and is typically a rectangular area. The keyword area is appropriately defined according to the actual size of the character string recognized as a keyword, but it is desirable that the keyword area does not become larger than necessary compared to the size of the character string.

プロジェクター100は、このような描画エリアデータを生成し、又はこの処理をスキップすると、新たに追加された軌跡をキーワードとして認識できるか否かを判断する(ステップS24)。プロジェクター100は、キーワードを認識することができたら、キーワードエリアデータを生成して記録する(ステップS25)。また、プロジェクター100は、キーワードを認識することができなかったら、ステップS25の処理をスキップする。   When the projector 100 generates such drawing area data or skips this processing, the projector 100 determines whether or not the newly added locus can be recognized as a keyword (step S24). When the projector 100 can recognize the keyword, the projector 100 generates and records keyword area data (step S25). If the projector 100 cannot recognize the keyword, it skips the process of step S25.

その後、プロジェクター100は、生成及び記録された描画エリアデータの中に、ポインターの値が“ヌル”であるものが含まれているか否かを判断する(ステップS26)。プロジェクター100は、このような描画エリアデータがあれば、当該描画エリアデータにより表される描画エリアとの間で所定の条件を満たすキーワードを特定し、当該キーワードのキーワードエリアデータと当該描画エリアデータとをポインターによって対応付ける(ステップS27)。この結果、当該描画エリアデータのポインターの値は、“ヌル”から当該キーワードエリアデータの位置を表す値に変わる。なお、プロジェクター100は、描画エリアデータの数よりもキーワードエリアデータの数の方が多い場合には、ステップS27の処理を実行しなくてよい。   Thereafter, the projector 100 determines whether or not the generated and recorded drawing area data includes a pointer value “null” (step S26). If there is such drawing area data, the projector 100 identifies a keyword that satisfies a predetermined condition with the drawing area represented by the drawing area data, and the keyword area data of the keyword, the drawing area data, Is associated with the pointer (step S27). As a result, the pointer value of the drawing area data is changed from “null” to a value indicating the position of the keyword area data. If the number of keyword area data is larger than the number of drawing area data, the projector 100 does not have to execute the process of step S27.

なお、ここでいう条件は、描画エリアとキーワードの対応関係を判断するためのものである。この条件は、描画エリアとキーワードエリアの相対的な位置や、描画エリアとキーワードエリアとが認識された順番に基づいて定められる。例えば、ある描画エリアに対応するキーワードは、当該描画エリアが認識された後で最初に認識されたキーワードであったり、当該描画エリアとの距離が最も近いキーワードであったりしてもよい。あるいは、“キーワードは、対応する描画エリアの左に記入する”といった規則をあらかじめ設けておけば、ある描画エリアに対応するキーワードは、当該描画エリアからみて所定の方向(左)において認識された文字列のうち、当該描画エリアとの距離が最も近いキーワードエリア内のキーワードとすることができる。なお、ここでいう距離は、描画エリアの中心とキーワードエリアの中心とを結んだ線分のことであってもよいし、これらのエリアの最短距離のことであってもよい。   The conditions here are for determining the correspondence between the drawing area and the keyword. This condition is determined based on the relative position between the drawing area and the keyword area and the order in which the drawing area and the keyword area are recognized. For example, a keyword corresponding to a certain drawing area may be a keyword that is recognized first after the drawing area is recognized, or a keyword that is closest to the drawing area. Alternatively, if a rule such as “keyword is written to the left of the corresponding drawing area” is provided in advance, the keyword corresponding to a certain drawing area is a character recognized in a predetermined direction (left) as viewed from the drawing area. Of the columns, the keyword in the keyword area that is closest to the drawing area can be used. The distance referred to here may be a line segment connecting the center of the drawing area and the center of the keyword area, or may be the shortest distance between these areas.

認識処理は以上のとおりである。このような認識処理が実行されると、1又は複数の描画エリアデータとキーワードエリアデータとが生成及び記録される。プロジェクター100は、描画エリアデータやキーワードエリアデータをリスト化して一時的に記憶し、ステップS3の描画処理において、このリストを用いて第2コンテンツを読み出すことによりインタラクティブ画像を描画する。   The recognition process is as described above. When such a recognition process is executed, one or a plurality of drawing area data and keyword area data are generated and recorded. The projector 100 creates a list of drawing area data and keyword area data and temporarily stores them, and draws an interactive image by reading the second content using this list in the drawing process of step S3.

図10は、ステップS3の描画処理を示すフローチャートである。この描画処理において、プロジェクター100は、描画エリアデータのリストにまだ参照していない描画エリアデータがあるか否かを判断し(ステップS31)、未参照の描画エリアデータがあれば、これを1つ読み出す(ステップS32)。また、プロジェクター100は、未参照の描画エリアデータがなければ、描画処理を終了する。   FIG. 10 is a flowchart showing the drawing process in step S3. In this drawing process, the projector 100 determines whether there is drawing area data that has not been referred to in the drawing area data list (step S31). Read (step S32). If there is no unreferenced drawing area data, the projector 100 ends the drawing process.

プロジェクター100は、読み出した描画エリアデータのポインターが“ヌル”を示しているか否かを判断する(ステップS33)。すなわち、このときプロジェクター100は、読み出した描画エリアデータにキーワードエリアデータが関連付けられているか否かを判断している。プロジェクター100は、ポインターの値が“ヌル”でなければ、その値を参照してキーワードエリアデータを読み出し、描画エリアとキーワードとを特定する(ステップS34)。さらに、プロジェクター100は、コンテンツリンクテーブルを参照し、ステップS34において特定したキーワードに関連付けられた第2コンテンツのファイルパスを特定し、第2コンテンツを読み出して取得する(ステップS35)。   The projector 100 determines whether or not the pointer of the read drawing area data indicates “null” (step S33). That is, at this time, the projector 100 determines whether or not keyword area data is associated with the read drawing area data. If the value of the pointer is not “null”, the projector 100 reads the keyword area data with reference to the value, and specifies the drawing area and the keyword (step S34). Further, the projector 100 refers to the content link table, identifies the file path of the second content associated with the keyword identified in step S34, and reads and acquires the second content (step S35).

そして、プロジェクター100は、ステップS35において取得した第2コンテンツが表すインタラクティブ画像を、ステップS34において特定した描画エリアに描画する(ステップS36)。このとき、プロジェクター100は、描画エリアのサイズとインタラクティブ画像のサイズとが異なっていれば、インタラクティブ画像の縮尺を描画エリアに合うように変換し、その倍率を異ならせて描画してもよい。また、プロジェクター100は、描画エリアの形状(例えば縦横比)とインタラクティブ画像の形状とが異なる場合には、描画エリア中の適当な位置にインタラクティブ画像を配置する。   Then, the projector 100 draws the interactive image represented by the second content acquired in step S35 in the drawing area specified in step S34 (step S36). At this time, if the size of the drawing area and the size of the interactive image are different, the projector 100 may convert the scale of the interactive image so as to fit the drawing area, and draw at a different magnification. Further, when the shape of the drawing area (for example, the aspect ratio) and the shape of the interactive image are different, the projector 100 arranges the interactive image at an appropriate position in the drawing area.

インタラクティブ画像を所定の位置に描画したら、プロジェクター100は、ステップS32において読み出した描画エリアデータをリストから削除する(ステップS37)。この結果、描画エリアデータのリストからは、データが1つ減る。その後、プロジェクター100は、描画エリアデータのリストに未参照の描画エリアデータがあるか否かを判断し(ステップS38)、未参照の描画エリアデータがあれば、ステップS32以降の処理を繰り返す。一方、プロジェクター100は、未参照の描画エリアデータがなければ、描画処理を終了する。   When the interactive image is drawn at a predetermined position, the projector 100 deletes the drawing area data read in step S32 from the list (step S37). As a result, the data is reduced by one from the drawing area data list. Thereafter, the projector 100 determines whether there is unreferenced drawing area data in the drawing area data list (step S38), and if there is unreferenced drawing area data, repeats the processing from step S32. On the other hand, if there is no unreferenced drawing area data, the projector 100 ends the drawing process.

このように認識処理(図7参照)及び描画処理(図10参照)を実行すると、第2コンテンツは、キーワードが対応付けられたものから順次描画されていくことになる。描画エリアデータのリストにはポインターの値が“ヌル”であるデータが削除されずに残り続けるが、当該データは、キーワードエリアデータが生成されて対応付けられることによって描画に供される。   When the recognition process (see FIG. 7) and the drawing process (see FIG. 10) are executed in this way, the second content is sequentially drawn from the one associated with the keyword. Data with a pointer value of “null” remains in the drawing area data list without being deleted, but the data is used for drawing by generating and associating keyword area data.

図11は、ユーザーによる軌跡とインタラクティブ画像の表示例を示す図である。同図において、M1、M2は、それぞれ位置決めマークを表し、K1、K2は、それぞれ位置決めマークM1、M2に対応するキーワードを表す。また、I1、I2は、それぞれ位置決めマークM1とキーワードK1の組と位置決めマークM2とキーワードK1の組とに対応するインタラクティブ画像を表す。   FIG. 11 is a diagram illustrating a display example of the locus and interactive image by the user. In the drawing, M1 and M2 represent positioning marks, respectively, and K1 and K2 represent keywords corresponding to the positioning marks M1 and M2, respectively. I1 and I2 represent interactive images corresponding to the set of positioning mark M1 and keyword K1, and the set of positioning mark M2 and keyword K1, respectively.

以上のとおり、プロジェクションシステム10によれば、ユーザーによる筆記での操作によって、記憶媒体151に記憶されているコンテンツが表す画像を描画し、これを投射面に表示することが可能である。ユーザーは、位置決めマークとキーワードを書き込むという比較的簡単な操作によって、必要な画像を投射面に表示することが可能である。それゆえ、ユーザーは、手書きでは困難な緻密な画像や正確な画像であっても、筆記による操作によって比較的短時間で表示させることが可能である。   As described above, according to the projection system 10, it is possible to draw an image represented by content stored in the storage medium 151 and display it on the projection surface by a user's writing operation. The user can display a necessary image on the projection surface by a relatively simple operation of writing a positioning mark and a keyword. Therefore, the user can display a minute image or an accurate image that is difficult by handwriting in a relatively short time by an operation by writing.

[第2実施形態]
本実施形態は、上述したインタラクティブ画像が動画である場合に特に好適な実施の形態である。本実施形態の特徴は、インタラクティブ画像の再生を制御することができる点にある。ここでいう再生の制御とは、動画であるインタラクティブ画像の再生を開始ないし停止したり、あるいは早送りや巻き戻しを行ったり、さらにはスローモーションで再生したりすることをいう。
[Second Embodiment]
This embodiment is an embodiment particularly suitable when the above-described interactive image is a moving image. The feature of this embodiment is that it is possible to control the reproduction of an interactive image. The reproduction control here refers to starting or stopping reproduction of an interactive image, which is a moving image, fast-forwarding or rewinding, and further reproducing in slow motion.

なお、本実施形態の構成及び動作は、第1実施形態のそれらと多くの共通点を有している。そのため、以下に示す本実施形態の説明においては、第1実施形態と共通する部分の説明を適宜省略するものとする。また、本実施形態の説明において、第1実施形態と同一の符号を付して説明される構成要素は、その構成が第1実施形態と同様のものであることを意味する。   Note that the configuration and operation of this embodiment have many common points with those of the first embodiment. Therefore, in the following description of the present embodiment, descriptions of parts common to the first embodiment are omitted as appropriate. In the description of the present embodiment, the constituent elements described with the same reference numerals as those in the first embodiment mean that the configurations are the same as those in the first embodiment.

図12は、プロジェクター100aの構成を示すブロック図である。プロジェクター100aは、認識部120に代えて認識部120aを備える点において第1実施形態のプロジェクター100と相違する。認識部120aは、第1実施形態と同様の位置認識部121及び識別情報認識部122に加えて、制御情報認識部123を備える点において認識部120と相違する。なお、ホワイトボード300及びペン400の構成は、第1実施形態と同様である。   FIG. 12 is a block diagram illustrating a configuration of the projector 100a. The projector 100a is different from the projector 100 of the first embodiment in that a recognition unit 120a is provided instead of the recognition unit 120. The recognition unit 120a is different from the recognition unit 120 in that it includes a control information recognition unit 123 in addition to the position recognition unit 121 and the identification information recognition unit 122 similar to those in the first embodiment. The configurations of the whiteboard 300 and the pen 400 are the same as those in the first embodiment.

制御情報認識部123は、動画であるインタラクティブ画像の再生を制御するための制御情報をペン400による軌跡に基づいて認識する手段である。制御情報は、インタラクティブ画像の再生態様を示す情報である。制御情報には、インタラクティブ画像の再生の開始を指示する情報や、インタラクティブ画像の再生の停止を指示する情報など、複数の種類が存在する。これらの制御情報は、位置決めマークと同様に、所定の図形によって表現されている。この図形のことを、以下においては「制御マーク」という。ただし、制御情報は、図形ではなく記号(文字)によって表されてもよい。   The control information recognition unit 123 is means for recognizing control information for controlling the reproduction of an interactive image that is a moving image based on a trajectory by the pen 400. The control information is information indicating an interactive image reproduction mode. There are a plurality of types of control information, such as information for instructing start of interactive image reproduction and information for instructing stop of interactive image reproduction. These control information is expressed by a predetermined figure as in the case of the positioning mark. This figure is hereinafter referred to as “control mark”. However, the control information may be represented by symbols (characters) instead of graphics.

図13は、制御マークの一例を示す図である。制御マークM21は、インタラクティブ画像の再生を停止する指示に相当するものであり、制御マークM22は、インタラクティブ画像の再生を開始する指示に相当するものである。また、制御マークM23は、再生されたインタラクティブ画像を巻戻す指示に相当するものであり、制御マークM24は、再生されているインタラクティブ画像を早送りする指示に相当するものである。   FIG. 13 is a diagram illustrating an example of a control mark. The control mark M21 corresponds to an instruction to stop the reproduction of the interactive image, and the control mark M22 corresponds to an instruction to start the reproduction of the interactive image. The control mark M23 corresponds to an instruction to rewind the reproduced interactive image, and the control mark M24 corresponds to an instruction to fast-forward the reproduced interactive image.

プロジェクター100aは、このような制御マークと制御情報とを対応付けたテーブルを記憶しており、このテーブルを参照することによってペン400の軌跡から制御情報を認識することができる。制御マークの位置は、投射面に動画が1つだけ表示される場合であれば、いかなる位置であってもよいが、投射面に動画が複数表示される場合であれば、それぞれの表示エリアの近傍の所定の位置であることが望ましい。制御マークとインタラクティブ画像の対応付けは、位置決めマークとインタラクティブ画像の対応付けと同様の要領で実現可能である。   The projector 100a stores a table in which such control marks and control information are associated with each other, and the control information can be recognized from the locus of the pen 400 by referring to this table. The position of the control mark may be any position as long as only one moving image is displayed on the projection surface, but if a plurality of moving images are displayed on the projection surface, It is desirable that it is a predetermined position in the vicinity. The association between the control mark and the interactive image can be realized in the same manner as the association between the positioning mark and the interactive image.

制御マークの記入方法としては、以下の方法が挙げられる。例えば、インタラクティブ画像の再生を開始し、これを一旦停止させてから再生を再度開始する場合であれば、制御マークM22、M21、M22をこの順番で順次記入する方法を採用することができる。あるいは、ペン400の軌跡をイレイサー(ホワイトボード消し)で消去できる場合であれば、制御マークを記入することで制御情報を有効にし、制御マークを消去することで制御情報を無効にする方法を採用することもできる。この方法の具体例は、制御マークM22が書き込まれている状態で制御マークM24を追記すると、インタラクティブ画像の再生が早送りになり、この状態で制御マークM24のみを消去すると、早送りが解除されてインタラクティブ画像が元の速度で再生されるようになる、といったものである。   As a method for entering the control mark, the following method can be cited. For example, in the case where the interactive image is started to be reproduced, and once stopped, the reproduction is started again, a method of sequentially writing the control marks M22, M21, and M22 in this order can be employed. Alternatively, if the locus of the pen 400 can be erased by an eraser (whiteboard eraser), a method is adopted in which the control information is validated by entering a control mark and the control information is invalidated by erasing the control mark. You can also A specific example of this method is that if the control mark M24 is additionally written in the state where the control mark M22 is written, the interactive image reproduction is fast-forwarded. If only the control mark M24 is erased in this state, the fast-forwarding is canceled and the interactive image is interactively displayed. The image will be played back at its original speed.

なお、本実施形態の制御情報は、上述した例に限らず、例えば、インタラクティブ画像の画質(輝度、彩度、コントラストなど)を制御するためのものであってもよい。また、図13に示した制御マークM21〜M24は、あくまでも一例であって、他の図形を用いることももちろん可能である。   The control information of the present embodiment is not limited to the above-described example, and may be information for controlling the image quality (brightness, saturation, contrast, etc.) of the interactive image, for example. Further, the control marks M21 to M24 shown in FIG. 13 are merely examples, and it is of course possible to use other figures.

また、本実施形態は、制御マークをユーザーが筆記するのではなく、制御マークに相当する画像をプロジェクター100aが描画する態様であってもよい。例えば、ユーザーが描画エリアを指定し、キーワードとして「動画制御」といった文字列を筆記すると、プロジェクター100aは、このキーワードを認識し、認識した描画エリアに制御マークに相当する画像を描画する。この場合、ユーザーが投射面に表示されている制御マークの中から所望のマークをペン400で指示し、プロジェクター100aが指示された位置を認識することによって、インタラクティブ画像の再生態様を指示することができる。なお、この場合の制御マークは、インタラクティブ画像の再生態様を指示するためのものではなく、元画像の再生態様を指示するためのものであってもよい。   Further, in the present embodiment, the projector 100a may draw an image corresponding to the control mark, instead of the user writing the control mark. For example, when the user designates a drawing area and writes a character string such as “moving image control” as a keyword, the projector 100a recognizes this keyword and draws an image corresponding to the control mark in the recognized drawing area. In this case, the user may instruct a desired mark from among the control marks displayed on the projection surface with the pen 400, and the projector 100a may recognize the instructed position, thereby instructing the reproduction mode of the interactive image. it can. Note that the control mark in this case is not for indicating the reproduction mode of the interactive image, but may be for indicating the reproduction mode of the original image.

さらに、本実施形態において、第2取得部140は、複数の入力端子を備え、描画制御部160は、この入力端子を介して入力される第1コンテンツに応じた画像を描画させるようにしてもよい。ここでいう入力端子は、例えば、S端子、VGA(Video Graphics Array)端子、HDMI(High-Definition Multimedia Interface)端子などである。すなわち、この場合のプロジェクター100aは、入力ソースを切り替えることが可能である。この場合において、プロジェクター100aは、ユーザーが描画エリアを指定し、キーワードとして「ソース切り替え」といった文字列を筆記すると、認識した描画エリアに入力ソースを切り替えるための画像(例えば、「ソース1」、「ソース2」といった各入力ソースを示す画像)を描画する。この場合、ユーザーが投射面に表示されている入力ソースの中から所望のソースをペン400で指示し、プロジェクター100aが指示された位置を認識することによって、元画像の再生態様を指示することができる。   Furthermore, in the present embodiment, the second acquisition unit 140 includes a plurality of input terminals, and the drawing control unit 160 may draw an image corresponding to the first content input via the input terminals. Good. The input terminals here are, for example, an S terminal, a VGA (Video Graphics Array) terminal, an HDMI (High-Definition Multimedia Interface) terminal, and the like. That is, the projector 100a in this case can switch the input source. In this case, when the user designates a drawing area and writes a character string such as “switch source” as a keyword, the projector 100a displays an image (for example, “source 1”, “ An image showing each input source such as “source 2” is drawn. In this case, the user designates a desired source from the input sources displayed on the projection surface with the pen 400, and the projector 100a recognizes the designated position, thereby instructing the reproduction mode of the original image. it can.

[変形例]
本発明は、上述した実施形態に限らず、以下に例示するさまざまな態様でも実施可能である。また、本発明は、必要に応じて、以下に示す変形例を複数組み合わせた態様でも実施することができる。
[Modification]
The present invention is not limited to the above-described embodiment, and can be implemented in various modes exemplified below. Moreover, this invention can be implemented also in the aspect which combined multiple modifications shown below as needed.

(1)本発明は、第1コンテンツや第2コンテンツがあらかじめプロジェクター100に記憶されていることを要するものではない。例えば、プロジェクター100は、外部装置(Webサーバー、画像データベースなど)と通信可能に接続されており、この外部装置に記憶された第1コンテンツや第2コンテンツを取得する構成であってもよい。また、この場合において、プロジェクター100は、上述したキーワードを検索クエリーとして外部装置に送信し、第2コンテンツを検索結果として受信してもよい。 (1) The present invention does not require the first content or the second content to be stored in the projector 100 in advance. For example, the projector 100 may be configured to be communicably connected to an external device (such as a Web server or an image database) and acquire first content and second content stored in the external device. In this case, the projector 100 may transmit the above-described keyword as a search query to an external device and receive the second content as a search result.

(2)本発明の識別情報は、上述したキーワードのように、コンテンツリンクテーブルによってファイルパスと関連付けられることを要するものではない。例えば、識別情報は、コンテンツのファイル名そのものであってもよいし、コンテンツにメタデータとして埋め込まれていてもよい。このような識別情報を用いた場合には、コンテンツリンクテーブルに相当するデータが不要である。 (2) The identification information of the present invention does not need to be associated with the file path by the content link table like the keyword described above. For example, the identification information may be the file name itself of the content, or may be embedded as metadata in the content. When such identification information is used, data corresponding to the content link table is unnecessary.

また、本発明の識別情報は、描画エリアを指定する軌跡(すなわち位置決めマーク)の色や形状を表す情報であってもよい。すなわち、識別情報は、キーワードやファイル名のような文字そのものを表す情報である必要はない。このような識別情報は、例えば、赤色の色材で定義された描画エリアにはあるコンテンツが対応し、緑色の色材で定義された描画エリアには別のコンテンツが対応するとか、図3の位置決めマークM11によって定義された描画エリアにはあるコンテンツが対応し、図4の位置決めマークM12によって定義された描画エリアには別のコンテンツが対応する、といった規則を記述したデータである。この場合、識別情報認識部122は、ユーザーにより書き込まれた軌跡の色や形状に基づいて識別情報を認識し、描画エリアとコンテンツとの対応関係を判断する。   Further, the identification information of the present invention may be information representing the color or shape of a locus (that is, a positioning mark) that designates a drawing area. That is, the identification information does not need to be information representing characters such as keywords and file names. Such identification information is, for example, that one content corresponds to a drawing area defined by a red color material, and another content corresponds to a drawing area defined by a green color material. This is data describing a rule that a certain content corresponds to the drawing area defined by the positioning mark M11 and another content corresponds to the drawing area defined by the positioning mark M12 in FIG. In this case, the identification information recognition unit 122 recognizes the identification information based on the color or shape of the locus written by the user, and determines the correspondence between the drawing area and the content.

なお、識別情報は、キーワードやファイル名を表す情報と位置決めマークの色や形状を表す情報の双方を含み、これらの組み合わせによってコンテンツを一意的に特定するように構成されていてもよい。
また、識別情報は、投射面に描画されるインタラクティブ画像が特定の単一の画像である場合や、あらかじめ決められた複数のインタラクティブ画像をあらかじめ決められた順番で投射面に描画する場合には、不要である。この場合、ユーザーは、筆記の操作で描画エリアを指定するだけでよく、描画すべき画像を指定する必要はない。
The identification information may include both information representing a keyword and a file name and information representing the color and shape of the positioning mark, and the content may be uniquely specified by a combination thereof.
Further, the identification information is used when the interactive image drawn on the projection surface is a specific single image or when a plurality of predetermined interactive images are drawn on the projection surface in a predetermined order. It is unnecessary. In this case, the user only has to specify the drawing area by a writing operation, and does not need to specify the image to be drawn.

(3)描画制御部160は、認識部120により認識される軌跡が所定の条件を満たす変化をした場合に、インタラクティブ画像を更新する制御を行うことも可能である。ここでいう軌跡は、キーワードに相当する軌跡と位置決めマークに相当する軌跡のいずれであってもよい。また、ここでいう条件は、例えば、これらの軌跡が消去されたり、あるいは書き換えられたりすることに相当する。 (3) The drawing control unit 160 can also perform control to update the interactive image when the locus recognized by the recognition unit 120 changes to satisfy a predetermined condition. The trajectory here may be either a trajectory corresponding to a keyword or a trajectory corresponding to a positioning mark. Further, the condition here corresponds to, for example, that these trajectories are deleted or rewritten.

例えば、描画制御部160は、キーワードに相当する軌跡と位置決めマークに相当する軌跡のいずれかが消去された場合に、これに対応するインタラクティブ画像を消去するようにしてもよい。あるいは、描画制御部160は、位置決めマークM11(図3参照)の直線を書き足して延伸した場合に、描画エリアを拡大し、インタラクティブ画像の縮尺を描画エリアのサイズに合わせて変更してインタラクティブ画像を再描画(すなわち拡大)してもよい。同様に、描画制御部160は、位置決めマークM11(図3参照)の直線の一部を消して短縮した場合には、描画エリアを縮小し、インタラクティブ画像の縮尺を描画エリアのサイズに合わせて変更してインタラクティブ画像を再描画(すなわち縮小)してもよい。   For example, the drawing control unit 160 may erase the interactive image corresponding to any of the locus corresponding to the keyword and the locus corresponding to the positioning mark. Alternatively, when the drawing control unit 160 adds and extends a straight line of the positioning mark M11 (see FIG. 3), the drawing control unit 160 enlarges the drawing area and changes the scale of the interactive image according to the size of the drawing area. May be redrawn (ie enlarged). Similarly, the drawing control unit 160 reduces the drawing area and changes the scale of the interactive image according to the size of the drawing area when a part of the straight line of the positioning mark M11 (see FIG. 3) is deleted and shortened. Then, the interactive image may be redrawn (that is, reduced).

(4)投射面は、ホワイトボードである必要はなく、スクリーンや紙などであってもよい。また、軌跡の記入に用いられるペンは、色材を投射面に付着させるものである必要はなく、赤色光などの可視光線や赤外光を投射面に照射するものであってもよい。かかるペンは、ユーザーの操作に応じて、照射する光の波長が変更可能であるか、あるいは照射する光の波長が異なる複数本のペンがあってもよい。この場合、プロジェクター100は、ペンが照射する光の波長に対して感度を有し、照射された光に基づいて記号の軌跡を認識する。プロジェクター100は、この軌跡を投射面に描画することが望ましいが、軌跡の描画は必須ではない。 (4) The projection surface does not have to be a white board, and may be a screen or paper. Further, the pen used for writing the locus does not need to attach a color material to the projection surface, and may irradiate the projection surface with visible light such as red light or infrared light. Such a pen may be capable of changing the wavelength of light to be irradiated according to the operation of the user, or may be a plurality of pens having different wavelengths of light to be irradiated. In this case, the projector 100 is sensitive to the wavelength of light emitted by the pen, and recognizes the trajectory of the symbol based on the emitted light. The projector 100 desirably draws the locus on the projection surface, but drawing the locus is not essential.

あるいは、本発明は、投射面にペン(又はそのペン先)の位置を検知する検知手段を備え、検知された位置に基づいて軌跡を認識する構成としてもよい。かかる検知手段は、例えば、投射面に対する圧力(筆圧)を検知するセンサーや、ペン先の位置を光学的に検知するセンサーである。   Alternatively, the present invention may be configured to include a detecting unit that detects the position of the pen (or the tip of the pen) on the projection surface and recognize the locus based on the detected position. Such detection means is, for example, a sensor that detects pressure (writing pressure) on the projection surface or a sensor that optically detects the position of the pen tip.

(5)本発明のキーワードは、位置決めマーク、制御マーク、キーワード以外の記号との区別をより明確にするために、特徴的な所定の記号を含むように構成されてもよい。例えば、本発明のキーワードは、その冒頭と末尾に「*(アスタリスク)」を付すものとし、「*答え1*」、「*答え2*」といった文字列としてもよい。このようにすれば、ユーザーが投射面にキーワード以外のさまざまな文字を記入する場合においても、キーワードを正確に認識することが可能である。 (5) The keyword of the present invention may be configured to include a characteristic predetermined symbol in order to make the distinction from a positioning mark, a control mark, and a symbol other than the keyword more clear. For example, “* (asterisk)” is added to the beginning and end of the keyword of the present invention, and it may be a character string such as “* answer 1 *” or “* answer 2 *”. In this way, the keyword can be accurately recognized even when the user enters various characters other than the keyword on the projection surface.

(6)上述した認識処理や描画処理は、プロジェクター単体の動作ではなく、プロジェクターと他の装置との協働によって実現されるものであってもよい。
図14は、本変形例の構成を示すブロック図である。同図において、図2と同一の符号が付された構成要素は、その構成が第1実施形態と同様であることを意味する。この例において、100bはプロジェクターであり、200aは情報処理装置である。
(6) The above-described recognition processing and drawing processing may be realized not by the operation of the projector alone but by cooperation between the projector and another device.
FIG. 14 is a block diagram showing a configuration of this modification. In the figure, components denoted by the same reference numerals as those in FIG. 2 mean that the configuration is the same as that of the first embodiment. In this example, 100b is a projector, and 200a is an information processing apparatus.

情報処理装置200aは、例えば、パーソナルコンピューター、携帯電話機、スマートフォンなどである。情報処理装置200aは、撮影部110、認識部120、第1取得部130、第2取得部140、記憶部150及び描画制御部160に加え、外部装置であるプロジェクター100bと通信する通信部210を備える。また、プロジェクター100bは、投射部170に加え、外部装置である情報処理装置200aと通信する通信部180を備える。情報処理装置200aは、通信部210を介して画像信号を送信し、プロジェクター100bは、通信部180を介して画像信号を受信する。なお、第1取得部130は、インターネットなどのネットワークを介して第1コンテンツ又は第2コンテンツを取得することや、記憶部150に記憶された第1コンテンツ又は第2コンテンツを取得することも可能である。   The information processing apparatus 200a is, for example, a personal computer, a mobile phone, a smartphone, or the like. The information processing apparatus 200a includes a communication unit 210 that communicates with the projector 100b, which is an external device, in addition to the photographing unit 110, the recognition unit 120, the first acquisition unit 130, the second acquisition unit 140, the storage unit 150, and the drawing control unit 160. Prepare. In addition to the projection unit 170, the projector 100b includes a communication unit 180 that communicates with the information processing apparatus 200a that is an external device. The information processing apparatus 200a transmits an image signal via the communication unit 210, and the projector 100b receives the image signal via the communication unit 180. The first acquisition unit 130 can also acquire the first content or the second content via a network such as the Internet, or can acquire the first content or the second content stored in the storage unit 150. is there.

なお、記憶媒体151は、いわゆるUSB(Universal Serial Bus)メモリーやDVD(Digital Versatile Disc)のような、情報処理装置200aに対して着脱可能な記憶媒体であってもよい。この場合、情報処理装置200aは、記憶部150に代えて、記憶媒体151からデータを読み出す手段(USBポート、DVDドライブなど)を備えていればよい。さらに、記憶媒体151は、第2コンテンツだけでなく、第1コンテンツをも記憶していてもよい。なお、記憶媒体151が着脱可能であってもよいことは、第1実施形態及び第2実施形態においても同様に当てはまる。   The storage medium 151 may be a storage medium that is detachable from the information processing apparatus 200a, such as a so-called USB (Universal Serial Bus) memory or DVD (Digital Versatile Disc). In this case, the information processing apparatus 200a only has to read out data from the storage medium 151 (USB port, DVD drive, etc.) instead of the storage unit 150. Furthermore, the storage medium 151 may store not only the second content but also the first content. Note that the fact that the storage medium 151 may be detachable also applies to the first embodiment and the second embodiment.

(7)本発明のプロジェクターは、撮影機能を有しないものであってもよい。すなわち、本発明のプロジェクションシステムは、デジタルカメラ(デジタルスチルカメラ又はデジタルビデオカメラ)を別途備える構成であってもよい。
図15は、本変形例の構成を示すブロック図である。同図において、図2又は図14と同一の符号が付された構成要素は、その構成が第1実施形態と同様であることを意味する。この例において、100cはプロジェクターであり、200bはデジタルカメラである。
(7) The projector of the present invention may not have a photographing function. In other words, the projection system of the present invention may be configured to include a digital camera (digital still camera or digital video camera) separately.
FIG. 15 is a block diagram showing a configuration of this modification. In the same figure, the component to which the same code | symbol as FIG. 2 or FIG. 14 was attached | subjected means that the structure is the same as that of 1st Embodiment. In this example, 100c is a projector and 200b is a digital camera.

デジタルカメラ200bは、撮影部110と、外部装置であるプロジェクター100cと通信する通信部220とを備える。また、プロジェクター100cは、第1実施形態のプロジェクター100の構成において、撮影部110に代えて変形例6の通信部180を備える。デジタルカメラ200bとプロジェクター100cとは、通信部220、180を介して画像データを送受信する。なお、通信部220、180による通信は、無線通信と有線通信のいずれであってもよい。   The digital camera 200b includes a photographing unit 110 and a communication unit 220 that communicates with a projector 100c that is an external device. In addition, the projector 100c includes a communication unit 180 of Modification 6 instead of the imaging unit 110 in the configuration of the projector 100 of the first embodiment. The digital camera 200b and the projector 100c transmit and receive image data via the communication units 220 and 180. Communication by the communication units 220 and 180 may be either wireless communication or wired communication.

さらに、本発明のプロジェクションシステムは、本変形例のデジタルカメラ200bと変形例6の情報処理装置200aとが一体に構成されたものであってもよい。つまり、本発明は、撮影機能を有しないプロジェクターと、撮影機能を有し、認識処理や描画処理を実行可能な情報処理装置とを備える構成であってもよい。かかる情報処理装置は、例えば、撮影機能付きのスマートフォンや、いわゆるタブレットPC(Personal Computer)である。   Furthermore, in the projection system of the present invention, the digital camera 200b of the present modification and the information processing apparatus 200a of the modification 6 may be configured integrally. In other words, the present invention may be configured to include a projector that does not have a photographing function and an information processing apparatus that has a photographing function and can perform recognition processing and drawing processing. Such an information processing apparatus is, for example, a smartphone with a photographing function or a so-called tablet PC (Personal Computer).

10…プロジェクションシステム、100、100a、100b、100c…プロジェクター、110…撮影部、120、120a…認識部、121…位置認識部、122…識別情報認識部、123…制御情報認識部、130…第1取得部、140…第2取得部、150…記憶部、151…記憶媒体、160…描画制御部、170…投射部、180…通信部、100c…情報処理装置、200a…情報処理装置、200b…デジタルカメラ、210、220…通信部、300…ホワイトボード、400…ペン DESCRIPTION OF SYMBOLS 10 ... Projection system, 100, 100a, 100b, 100c ... Projector, 110 ... Shooting part, 120, 120a ... Recognition part, 121 ... Position recognition part, 122 ... Identification information recognition part, 123 ... Control information recognition part, 130th DESCRIPTION OF SYMBOLS 1 acquisition part, 140 ... 2nd acquisition part, 150 ... Memory | storage part, 151 ... Storage medium, 160 ... Drawing control part, 170 ... Projection part, 180 ... Communication part, 100c ... Information processing apparatus, 200a ... Information processing apparatus, 200b ... Digital camera, 210, 220 ... Communication unit, 300 ... White board, 400 ... Pen

Claims (8)

投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識する認識部と、
前記認識部により認識された前記画像を表す画像データを取得する取得部と、
前記取得部により取得された前記画像データが表す前記画像を、前記投射面の前記認識部により認識された前記描画エリアに描画させるように制御する描画制御部と
を備えることを特徴とするプロジェクター。
A recognition unit for recognizing an image to be drawn and a drawing area for drawing the image based on a locus of a symbol written on the projection surface;
An acquisition unit for acquiring image data representing the image recognized by the recognition unit;
A drawing control unit that controls to draw the image represented by the image data acquired by the acquiring unit in the drawing area recognized by the recognition unit of the projection surface.
前記取得部は、前記画像データと当該画像データに対応付けられた識別情報とを取得し、
前記認識部は、前記投射面において指定された描画エリアを前記軌跡に基づいて認識する位置認識部と、前記識別情報を前記軌跡に基づいて認識する識別情報認識部とを有し、
前記描画制御部は、前記識別情報認識部により認識された前記識別情報に対応付けられた前記画像データが表す画像を、前記投射面の前記位置認識部により認識された前記描画エリアに描画させる
ことを特徴とする請求項1に記載のプロジェクター。
The acquisition unit acquires the image data and identification information associated with the image data,
The recognition unit includes a position recognition unit that recognizes a drawing area designated on the projection surface based on the trajectory, and an identification information recognition unit that recognizes the identification information based on the trajectory,
The drawing control unit causes the image represented by the image data associated with the identification information recognized by the identification information recognition unit to be drawn in the drawing area recognized by the position recognition unit of the projection surface. The projector according to claim 1.
前記識別情報が、あらかじめ決められたキーワードを含み、
前記識別情報認識部は、前記軌跡に前記キーワードが含まれるか否かを判断して前記識別情報を認識する
ことを特徴とする請求項2に記載のプロジェクター。
The identification information includes a predetermined keyword,
The projector according to claim 2, wherein the identification information recognition unit recognizes the identification information by determining whether or not the keyword is included in the trajectory.
前記位置認識部は、前記描画エリアを複数認識し、
前記識別情報認識部は、前記識別情報を複数認識し、
前記描画制御部は、前記描画エリアと前記識別情報の位置、又は前記描画エリアと前記識別情報とが認識された順番に基づいて前記描画エリアと前記識別情報の対応関係を判断する
ことを特徴とする請求項2又は3に記載のプロジェクター。
The position recognition unit recognizes a plurality of the drawing areas,
The identification information recognition unit recognizes a plurality of the identification information,
The drawing control unit determines a correspondence relationship between the drawing area and the identification information based on a position of the drawing area and the identification information or an order in which the drawing area and the identification information are recognized. The projector according to claim 2 or 3.
前記識別情報が、前記描画エリアを指定する軌跡の色又は形状を表す情報を含み、
前記識別情報認識部は、前記軌跡の色又は形状に基づいて前記識別情報を認識する
ことを特徴とする請求項2ないし4のいずれか1項に記載のプロジェクター。
The identification information includes information representing a color or shape of a locus that specifies the drawing area,
The projector according to claim 2, wherein the identification information recognition unit recognizes the identification information based on a color or a shape of the trajectory.
前記認識部は、画像の再生を制御するための制御情報を前記軌跡に基づいて認識する制御情報認識部を有し、
前記描画制御部は、前記制御情報認識部により認識された制御情報に従って画像の再生を制御する
ことを特徴とする請求項1ないし5のいずれか1項に記載のプロジェクター。
The recognition unit includes a control information recognition unit that recognizes control information for controlling reproduction of an image based on the trajectory,
The projector according to claim 1, wherein the drawing control unit controls image reproduction according to control information recognized by the control information recognition unit.
前記描画制御部は、前記認識部により認識される軌跡が所定の条件を満たす変化をした場合に、前記画像を更新する
ことを特徴とする請求項1ないし6のいずれか1項に記載のプロジェクター。
The projector according to any one of claims 1 to 6, wherein the drawing control unit updates the image when a locus recognized by the recognition unit changes to satisfy a predetermined condition. .
投射面に対して筆記された記号の軌跡に基づいて、描画すべき画像と当該画像を描画する描画エリアとを認識し、
前記認識された前記画像を表す画像データを取得し、
前記取得された前記画像データが表す前記画像を、前記投射面の前記認識された前記描画エリアに描画する
ことを特徴とする画像描画方法。
Recognizing the image to be drawn and the drawing area for drawing the image based on the locus of the symbol written on the projection surface,
Obtaining image data representing the recognized image;
The image drawing method, wherein the image represented by the acquired image data is drawn in the recognized drawing area of the projection surface.
JP2011225605A 2011-10-13 2011-10-13 Projector and image drawing method Expired - Fee Related JP6008076B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011225605A JP6008076B2 (en) 2011-10-13 2011-10-13 Projector and image drawing method
US13/646,863 US9678565B2 (en) 2011-10-13 2012-10-08 Projector and image drawing method
US15/599,742 US20170255253A1 (en) 2011-10-13 2017-05-19 Projector and image drawing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011225605A JP6008076B2 (en) 2011-10-13 2011-10-13 Projector and image drawing method

Publications (3)

Publication Number Publication Date
JP2013089987A true JP2013089987A (en) 2013-05-13
JP2013089987A5 JP2013089987A5 (en) 2014-11-06
JP6008076B2 JP6008076B2 (en) 2016-10-19

Family

ID=48085654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011225605A Expired - Fee Related JP6008076B2 (en) 2011-10-13 2011-10-13 Projector and image drawing method

Country Status (2)

Country Link
US (2) US9678565B2 (en)
JP (1) JP6008076B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180410A (en) * 2017-04-19 2018-11-15 東芝情報システム株式会社 Projector system and program for projector system
JP2019004368A (en) * 2017-06-16 2019-01-10 カシオ計算機株式会社 Projection apparatus, projection system, control method and program

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5741079B2 (en) * 2011-03-09 2015-07-01 セイコーエプソン株式会社 Image generating apparatus and projector
JP6151989B2 (en) * 2013-06-28 2017-06-21 キヤノン株式会社 Information presenting apparatus, information presenting system, information presenting method, and program
TWI518574B (en) * 2013-12-25 2016-01-21 光峰科技股份有限公司 Interactive display system and input device thereof
JP2016076175A (en) * 2014-10-08 2016-05-12 キヤノン株式会社 Information processing device
CN105632453B (en) * 2014-11-19 2019-09-24 精工爱普生株式会社 Display device, display control method and display system
TWI562046B (en) * 2015-06-25 2016-12-11 Wistron Corp Optical touch apparatus and width detecting method thereof
DE102017212751A1 (en) * 2017-07-25 2019-01-31 Robert Bosch Gmbh Drawing device with a projection unit
CN110716678B (en) * 2019-10-08 2022-09-23 江苏集萃有机光电技术研究所有限公司 Local deletion method and processing system for display picture and display equipment
JP2021099430A (en) * 2019-12-23 2021-07-01 セイコーエプソン株式会社 Control method for display unit and display unit
JP2023007696A (en) * 2021-07-02 2023-01-19 セイコーエプソン株式会社 Image processing method and image processing apparatus
JP2023017206A (en) * 2021-07-26 2023-02-07 セイコーエプソン株式会社 Method for controlling projector, and projector

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160539A (en) * 1994-12-08 1996-06-21 Nikon Corp Optical blackboard
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2008027080A (en) * 2006-07-19 2008-02-07 Casio Comput Co Ltd Presentation system
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2009210625A (en) * 2008-02-29 2009-09-17 Canon Inc Display device and display method
JP2010139685A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program and information storage medium
JP2010139899A (en) * 2008-12-15 2010-06-24 Seiko Epson Corp Projection system, projector, program, and information storage medium
JP2010182023A (en) * 2009-02-04 2010-08-19 Fujifilm Corp Portable equipment and operation control method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4964066A (en) * 1986-09-05 1990-10-16 Sharp Kabushiki Kaisha Device for editing and displaying data recorded on specialized sheets or records
US5528743A (en) * 1993-05-27 1996-06-18 Apple Computer, Inc. Method and apparatus for inserting text on a pen-based computer system
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
CA2354301A1 (en) * 2001-07-27 2003-01-27 Djamel Yahia Meddah Geometric hashing for model-based recognition of an object
WO2005096126A1 (en) * 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha Image i/o device
JP5509689B2 (en) 2009-06-18 2014-06-04 セイコーエプソン株式会社 projector
KR101972924B1 (en) * 2011-11-11 2019-08-23 삼성전자주식회사 Method and apparatus for designating enire area using partial area touch in a portable equipment
JP6286836B2 (en) * 2013-03-04 2018-03-07 株式会社リコー Projection system, projection apparatus, projection method, and projection program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160539A (en) * 1994-12-08 1996-06-21 Nikon Corp Optical blackboard
JPH09231393A (en) * 1996-02-23 1997-09-05 Fuji Xerox Co Ltd Instruction input device
JP2008027080A (en) * 2006-07-19 2008-02-07 Casio Comput Co Ltd Presentation system
US20090168027A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Projector system employing depth perception to detect speaker position and gestures
JP2009210625A (en) * 2008-02-29 2009-09-17 Canon Inc Display device and display method
JP2010139685A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program and information storage medium
JP2010139899A (en) * 2008-12-15 2010-06-24 Seiko Epson Corp Projection system, projector, program, and information storage medium
JP2010182023A (en) * 2009-02-04 2010-08-19 Fujifilm Corp Portable equipment and operation control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180410A (en) * 2017-04-19 2018-11-15 東芝情報システム株式会社 Projector system and program for projector system
JP2019004368A (en) * 2017-06-16 2019-01-10 カシオ計算機株式会社 Projection apparatus, projection system, control method and program

Also Published As

Publication number Publication date
US20130093666A1 (en) 2013-04-18
US20170255253A1 (en) 2017-09-07
US9678565B2 (en) 2017-06-13
JP6008076B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6008076B2 (en) Projector and image drawing method
US8827461B2 (en) Image generation device, projector, and image generation method
US9697431B2 (en) Mobile document capture assist for optimized text recognition
US20120320092A1 (en) Method and apparatus for exhibiting mixed reality based on print medium
CN103870233A (en) Display device, and method of controlling display device
US10382731B2 (en) Projector, multi-projection system, and method for controlling projector
CN102194136A (en) Information recognition system and its control method
CN108446047A (en) Display device and display control method
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
JP3832132B2 (en) Display system and presentation system
CN107111425A (en) Display device, projecting apparatus and display control method
CN103680225A (en) Teaching all-in-one machine and multi-input display method thereof
JP2008117083A (en) Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP5262888B2 (en) Document display control device and program
US11431899B2 (en) Display method and display apparatus
US11853544B2 (en) Electronic device, method for driving electronic device, and method for controlling data recording application
JP2010154089A (en) Conference system
JP6269227B2 (en) Display device, projector, and display control method
CN115834846A (en) Image display method and projector
TWI506483B (en) Interactive writing device and operating method thereof using adaptive color identification mechanism
KR102594106B1 (en) Control method of application for recording data and recording medium thereof
JP2017116900A (en) Information processing system, its control method, and program
JP2009259254A (en) Content expression control device, content expression control system, reference object for content expression control and content expression control program
JP2020134922A (en) Projector system
JP2010145596A (en) Projector, program, and information storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140922

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160609

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160830

R150 Certificate of patent or registration of utility model

Ref document number: 6008076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees