JP2014167701A - Projection control device - Google Patents

Projection control device Download PDF

Info

Publication number
JP2014167701A
JP2014167701A JP2013039123A JP2013039123A JP2014167701A JP 2014167701 A JP2014167701 A JP 2014167701A JP 2013039123 A JP2013039123 A JP 2013039123A JP 2013039123 A JP2013039123 A JP 2013039123A JP 2014167701 A JP2014167701 A JP 2014167701A
Authority
JP
Japan
Prior art keywords
image
information
unit
screen
projection control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013039123A
Other languages
Japanese (ja)
Inventor
Masaki Otsuki
正樹 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013039123A priority Critical patent/JP2014167701A/en
Publication of JP2014167701A publication Critical patent/JP2014167701A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Character Discrimination (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a simple configuration to project information based on writing to a screen so as to be easily viewed.SOLUTION: A projection control device 30 comprises: a first control section 35 that controls a projector 10 projecting an image on a screen; a second control section 35 that controls a camera 20 photographing the screen; an image generation section 36 that generates a first image making first information written on the screen inconspicuous on the basis of image data photographed by the camera 20; and an image synthesis section 34 that adds second information based on the first information to the first image. The first control section 35 causes the first image with the second information added to be projected from the projector 10.

Description

本発明は、投映制御装置に関する。   The present invention relates to a projection control apparatus.

プロジェクタを用いてプレゼンテーションを行う際に、プレゼンテーターによってスクリーンに書かれた文字をコンピュータが認識し、認識した文字を投映させる技術が知られている(特許文献1参照)。   A technique is known in which when a presentation is performed using a projector, a computer recognizes characters written on a screen by a presenter and projects the recognized characters (see Patent Document 1).

特開2011−103092号公報JP 2011-103092 A

従来技術では、ドットパターンが形成された専用のスクリーンと、該スクリーン上でドットパターンを読み込む専用のペンとが必要で、コストを下げることが困難であった。   In the prior art, a dedicated screen on which a dot pattern is formed and a dedicated pen for reading the dot pattern on the screen are required, and it is difficult to reduce the cost.

本発明による投映制御装置は、スクリーンへ画像を投映するプロジェクタを制御する第1制御部と、スクリーンを撮像するカメラを制御する第2制御部と、カメラで撮像された画像データに基づいて、スクリーン上に書かれた第1情報を目立たなくする第1画像を生成する画像生成部と、第1情報に基づく第2情報を第1画像に付加する画像合成部と、を備え、第1制御部は、第2情報が付加された第1画像をプロジェクタから投映させることを特徴とする。   A projection control apparatus according to the present invention includes a first control unit that controls a projector that projects an image on a screen, a second control unit that controls a camera that captures the screen, and a screen based on image data captured by the camera. An image generation unit that generates a first image that makes the first information written inconspicuous; and an image synthesis unit that adds second information based on the first information to the first image, and the first control unit Is characterized in that the first image to which the second information is added is projected from the projector.

本発明による投映制御装置によれば、簡単な構成で、スクリーンへの書き込みに基づく情報を見やすく投映できる。   According to the projection control apparatus of the present invention, information based on writing on the screen can be projected easily with a simple configuration.

第一の実施形態による投映制御装置の使用場面を説明する図である。It is a figure explaining the use scene of the projection control apparatus by 1st embodiment. スクリーンの投映面を拡大した図である。It is the figure which expanded the projection surface of the screen. 投映制御装置、デジタルカメラ、およびプロジェクタの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of a projection control apparatus, a digital camera, and a projector. (a)はデジタルカメラから送信されたフレーム画像を例示する図、(b)は(a)のフレーム画像から書き込み部分が補色に色変換されたフレーム画像を例示する図、(c)は(b)のフレーム画像の背景部分がグレーに色変換されたフレーム画像を例示する図、(d)はスクリーンに投映された画像を例示する図である。(a) is a diagram illustrating a frame image transmitted from a digital camera, (b) is a diagram illustrating a frame image in which a writing part is color-converted to a complementary color from (a), and (c) is (b). ) Is a diagram illustrating a frame image in which the background portion of the frame image is color-converted to gray, and (d) is a diagram illustrating an image projected on the screen. 投映制御装置の制御部が実行する処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process which the control part of a projection control apparatus performs. 変形例2の投映動作を行う制御部が実行する処理の流れを例示するフローチャートである。10 is a flowchart illustrating an example of a flow of processing executed by a control unit that performs a projection operation of Modification 2. 第二の実施形態による要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure by 2nd embodiment. (a)はデジタルカメラから送信されたフレーム画像を例示する図、(b)は(a)のフレーム画像から書き込み部分が補色に色変換されたフレーム画像を例示する図、(c)は(b)のフレーム画像の背景部分がグレーに色変換されたフレーム画像を例示する図、(d)はスクリーンに投映された画像を例示する図である。(a) is a diagram illustrating a frame image transmitted from a digital camera, (b) is a diagram illustrating a frame image in which a writing portion is color-converted to a complementary color from the frame image of (a), and (c) is (b) ) Is a diagram illustrating a frame image in which the background portion of the frame image is color-converted to gray, and (d) is a diagram illustrating an image projected on the screen.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<使用場面の説明>
図1は、本発明の第一の実施形態による投映制御装置の使用場面を説明する図である。図1において、プロジェクタ10はスクリーン40に向けて画像を投映する。プロジェクタ10が投映するための映像信号は、投映制御装置30から無線通信によってプロジェクタ10へ供給される。プレゼンテーターである人物Aは、プロジェクタ10からスクリーン40に投映される像を参照してプレゼンテーションを行う。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
<Explanation of usage>
FIG. 1 is a diagram for explaining a usage scene of the projection control apparatus according to the first embodiment of the present invention. In FIG. 1, the projector 10 projects an image toward the screen 40. A video signal for projection by the projector 10 is supplied from the projection control device 30 to the projector 10 by wireless communication. The person A who is a presenter makes a presentation with reference to an image projected from the projector 10 onto the screen 40.

デジタルカメラ20は、スクリーン40の投映面を所定のフレームレート(例えば60fps)で撮像し、撮像されたフレーム画像を逐次無線通信によって投映制御装置30へ送信する。投映制御装置30は、例えばパーソナルコンピューターによって構成される。投映制御装置30は、所定のプログラムを実行することにより、デジタルカメラ20による撮像動作を制御するとともに、プロジェクタ10による投映動作を制御する。サーバー60は、投映データ等を格納し、投映制御装置30からの要求に応じて必要なデータを投映制御装置30へ提供する。   The digital camera 20 captures the projection surface of the screen 40 at a predetermined frame rate (for example, 60 fps), and transmits the captured frame image to the projection control device 30 by sequential wireless communication. The projection control device 30 is configured by a personal computer, for example. The projection control device 30 controls the imaging operation by the digital camera 20 and the projection operation by the projector 10 by executing a predetermined program. The server 60 stores projection data and the like, and provides necessary data to the projection control device 30 in response to a request from the projection control device 30.

図2は、スクリーン40の投映面を拡大した図である。スクリーン40には、プロジェクタ10からグラフ等のプレゼンテーション資料が投映されている。人物Aは、マーカーペン50でスクリーン40に文字を書きながら説明する。プレゼンテーション中の投映制御装置30は、デジタルカメラ20から送信されたフレーム画像に基づいて、人物Aによってスクリーン40にマーカーペン50で書かれた文字を認識し、認識した文字を参加者に見やすい態様で、投映中のプレゼンテーション資料に重ねて、プロジェクタ10からスクリーン40に投映させる。   FIG. 2 is an enlarged view of the projection surface of the screen 40. On the screen 40, presentation materials such as graphs are projected from the projector 10. The person A will be described while writing characters on the screen 40 with the marker pen 50. The projection control device 30 during the presentation recognizes characters written by the marker pen 50 on the screen 40 by the person A based on the frame image transmitted from the digital camera 20, and the recognized characters are easy to see for the participants. Then, it is projected on the screen 40 from the projector 10 so as to overlap the presentation material being projected.

<投映制御の説明>
本実施形態は、上記投映制御装置30が認識した文字を、参加者に見やすい態様でプロジェクタ10からスクリーン40に投映させる点に特徴を有するので、以下の説明はこの点を中心に行う。図3は、図1の投映制御装置30、デジタルカメラ20、およびプロジェクタ10の要部構成を説明するブロック図である。
<Explanation of projection control>
Since the present embodiment is characterized in that the characters recognized by the projection control device 30 are projected from the projector 10 onto the screen 40 in a manner that is easy for the participant to see, the following description will be focused on this point. FIG. 3 is a block diagram for explaining a main configuration of the projection control device 30, the digital camera 20, and the projector 10 of FIG.

デジタルカメラ20は、撮像光学系21と、撮像素子22と、画像処理部23と、制御部24とを含む。撮像光学系21は、撮像素子22の撮像面上に被写体像(本例の被写体はスクリーン40)を結像させる。撮像素子22は、被写体像を撮像して画像データを出力する。画像処理部23は、画像データに所定の画像処理(例えば、輪郭強調やホワイトバランス調整など)を行う。制御部24は、デジタルカメラ20の各部に対する制御、および投映制御装置30との間の通信を行う。   The digital camera 20 includes an imaging optical system 21, an imaging element 22, an image processing unit 23, and a control unit 24. The imaging optical system 21 forms a subject image (the subject in this example is a screen 40) on the imaging surface of the imaging element 22. The image sensor 22 captures a subject image and outputs image data. The image processing unit 23 performs predetermined image processing (for example, contour enhancement, white balance adjustment, etc.) on the image data. The control unit 24 performs control for each unit of the digital camera 20 and communication with the projection control device 30.

投映制御装置30は、筆跡検出部31と、文字認識部32と、文字生成部33と、合成部34と、制御部35と、色変換部36と、記憶部37とを含む。筆跡検出部31は、デジタルカメラ20から送信されたフレーム画像に基づいて、人物Aによってスクリーン40上にマーカーペン50で書かれた筆跡を検出する。図4(a)は、デジタルカメラ20から送信されたフレーム画像のうち、人物Aによる書き込み部分を例示する図である。図4(a)によれば、デジタルカメラ20で撮像された画面のスクリーン40に「あいうえ」が書き込まれている。   The projection control device 30 includes a handwriting detection unit 31, a character recognition unit 32, a character generation unit 33, a synthesis unit 34, a control unit 35, a color conversion unit 36, and a storage unit 37. Based on the frame image transmitted from the digital camera 20, the handwriting detection unit 31 detects the handwriting written with the marker pen 50 on the screen 40 by the person A. FIG. 4A is a diagram illustrating a portion written by the person A in the frame image transmitted from the digital camera 20. According to FIG. 4A, “AIUE” is written on the screen 40 of the screen imaged by the digital camera 20.

ここで、スクリーン40の投映面は白地とし、マーカーペン50のインク色は彩度が低く、明度が高いパステルカラー(例えばピンク)とするが、図4(a)においては書き込み「あいうえ」をわかりやすくするため、黒色で表している。   Here, the projection surface of the screen 40 is a white background, and the ink color of the marker pen 50 is a pastel color (for example, pink) having a low saturation and a high lightness. In FIG. It is shown in black for easy understanding.

第一の実施形態において、色変換部36が色変換を開始するタイミング、および文字認識部32が文字認識処理を開始するタイミングは、人物Aが一連の書き込みを終えたタイミングとする。具体的には、制御部35が最新のフレーム画像と前フレームの画像とを比較しながら、筆跡検出部31によって検出された筆跡(白地におけるピンク色)に所定時間(例えば2秒)続けて変化が生じない場合を書き込み終了タイミングと判断する。   In the first embodiment, the timing at which the color conversion unit 36 starts color conversion and the timing at which the character recognition unit 32 starts character recognition processing are the timings at which the person A has finished a series of writing. Specifically, the control unit 35 compares the latest frame image with the previous frame image, and continuously changes the handwriting (pink on a white background) detected by the handwriting detection unit 31 for a predetermined time (for example, 2 seconds). The case where no occurrence occurs is determined as the write end timing.

人物Aによる一連の書き込みが終了したことが制御部35によって判断されると、色変換部36は、図4(a)のフレーム画像のうち、筆跡検出部31によって検出された書き込み部分を書き込み色の補色(インク色がピンクの場合はグリーン)に色変換する。色変換後の明度は、書き込み色の明度が高いほど高くし、書き込み色の明度が低いほど低くする。図4(b)は、図4(a)のフレーム画像から書き込み部分が補色に色変換されたフレーム画像を例示する図である。図4(b)においては、色変換後の書き込み部分「あいうえ」を中間階調で表している。   When the control unit 35 determines that a series of writing by the person A has been completed, the color conversion unit 36 writes the writing portion detected by the handwriting detection unit 31 in the frame image of FIG. Is converted to a complementary color (green when the ink color is pink). The lightness after color conversion is increased as the lightness of the writing color is higher, and is decreased as the lightness of the writing color is lower. FIG. 4B is a diagram illustrating a frame image in which a writing portion is color-converted to a complementary color from the frame image of FIG. In FIG. 4B, the written portion “Aiue” after color conversion is represented by an intermediate gradation.

色変換部36はさらに、図4(b)のフレーム画像のうち、書き込み部分以外の背景部分を彩度が低い中間階調(グレー)に色変換する。色変換後の明度は、上記補色に色変換した部分の明度と略同じ明度にする。図4(c)は、図4(b)のフレーム画像の背景部分がグレーに色変換されたフレーム画像を例示する図である。   Further, the color conversion unit 36 performs color conversion on the background portion other than the writing portion in the frame image of FIG. 4B to an intermediate gradation (gray) with low saturation. The lightness after the color conversion is set to be substantially the same as the lightness of the color-converted portion. FIG. 4C is a diagram illustrating a frame image in which the background portion of the frame image in FIG. 4B is color-converted to gray.

一方、文字認識部32は、筆跡検出部31で検出された書き込み部分に対して公知の文字認識処理を行う。文字生成部33は、文字認識部32によって認識された文字列「あいうえ」を、所定のフォント(例えばゴシック体)を用いて清書した文字画像を生成する。文字色は、例えば黒とする。合成部34は、図4(c)のフレーム画像の上から、文字生成部33で生成された文字列「あいうえ」の文字画像を重ね合成したフレーム画像を生成する。   On the other hand, the character recognition unit 32 performs a known character recognition process on the writing portion detected by the handwriting detection unit 31. The character generation unit 33 generates a character image in which the character string “Aiue” recognized by the character recognition unit 32 is written using a predetermined font (for example, Gothic). The character color is, for example, black. The synthesizing unit 34 generates a frame image obtained by superimposing the character images of the character string “Aiue” generated by the character generating unit 33 on the frame image of FIG.

制御部35は、投映制御装置30の各部に対する制御の他、投映制御装置30とデジタルカメラ20との間、および投映制御装置30とプロジェクタ10との間の通信を行う。記憶部37は、上述した処理の過程における各フレーム画像や文字画像を記憶する。記憶部37に記憶させておく理由は、人物Aがマーカーペン50で書き込んだ状態や、文字認識部32で認識された文字列の内容を、後から検索可能にするためである。   The control unit 35 performs communication between the projection control device 30 and the digital camera 20, and communication between the projection control device 30 and the projector 10, in addition to control of each unit of the projection control device 30. The storage unit 37 stores each frame image and character image in the process described above. The reason for storing the information in the storage unit 37 is that the state written by the person A with the marker pen 50 and the contents of the character string recognized by the character recognition unit 32 can be searched later.

制御部35は、合成部34で合成されたフレーム画像をプロジェクタ10から投映させるため、映像信号をプロジェクタ10へ送出する。   The control unit 35 sends a video signal to the projector 10 in order to project the frame image synthesized by the synthesis unit 34 from the projector 10.

プロジェクタ10は、投映光学系11と、投映像生成部12と、光源13と、制御部14とを含む。光源13は、投映像生成部12を照明する。投映像生成部12は、例えば液晶パネルによって構成され、投映制御装置30からの映像信号に基づいて照明光を変調する。投映光学系11は、投映像生成部12によって変調された光の像をスクリーン40に向けて投映する。   The projector 10 includes a projection optical system 11, a projection image generation unit 12, a light source 13, and a control unit 14. The light source 13 illuminates the projected image generation unit 12. The projection video generation unit 12 is configured by a liquid crystal panel, for example, and modulates illumination light based on a video signal from the projection control device 30. The projection optical system 11 projects the light image modulated by the projection image generation unit 12 toward the screen 40.

図4(d)は、スクリーン40に投映された画像を例示する図である。図4(d)によれば、人物Aによって書き込まれた部分は、ピンク色の上から補色(グリーン)が重なって彩度が低下し、参加者にグレーとして視認される。また、上述したように書き込み部分以外の背景部分もグレーとして視認される。以上のことから、人物Aによって書き込まれた部分は、背景部分のグレーに紛れて参加者から視認されにくくなる。   FIG. 4D is a diagram illustrating an image projected on the screen 40. According to FIG. 4 (d), the portion written by the person A has a lower saturation due to the complementary color (green) superimposed on the pink color, and is visually recognized as gray by the participant. Further, as described above, the background portion other than the writing portion is also visually recognized as gray. From the above, the part written by the person A is confused with the gray background part and is not easily seen by the participants.

文字生成部33によって生成された清書文字の部分は、上述したグレーを背景にゴシック体で黒く表されるので、参加者から視認されやすい。制御部14は、プロジェクタ10の各部に対する制御、および投映制御装置30との間の通信を行う。   The portion of the clear text generated by the character generation unit 33 is displayed in black with a gothic style with the above-described gray as a background, so that it is easy for the participant to visually recognize. The control unit 14 controls each unit of the projector 10 and communicates with the projection control device 30.

<フローチャートの説明>
図5は、以上説明した投映動作を行うために投映制御装置30の制御部35が実行する処理の流れを例示するフローチャートである。制御部35は、人物Aによってプレゼンテーションの開始が指示されると図5による処理を開始させる。図5のステップS101において、制御部35は、デジタルカメラ20から最新のフレーム画像のデータを入力してステップS102へ進む。
<Description of flowchart>
FIG. 5 is a flowchart illustrating the flow of processing executed by the control unit 35 of the projection control device 30 in order to perform the projection operation described above. When the start of the presentation is instructed by the person A, the control unit 35 starts the processing shown in FIG. In step S101 of FIG. 5, the control unit 35 inputs the latest frame image data from the digital camera 20, and proceeds to step S102.

ステップS102において、制御部35は、人物Aが一連の書き込みを終えたか否かを判定する。制御部35は、書き込み終了を判定するとステップS102を肯定判定してステップS103へ進み、書き込み終了を判定しない場合はステップS102を否定判定してステップS101へ戻る。ステップS101へ戻る場合は、上述した処理を繰り返す。   In step S102, the control unit 35 determines whether the person A has finished a series of writing. When determining the end of writing, the control unit 35 makes a positive determination in step S102 and proceeds to step S103. When not determining the end of writing, the control unit 35 makes a negative determination in step S102 and returns to step S101. When returning to step S101, the above-described processing is repeated.

ステップS103において、制御部35は、文字認識部32に文字認識を行わせてステップS104へ進む。ステップS104において、制御部35は文字生成部33に指示を送り、文字認識部32によって認識された文字列「あいうえ」を清書した文字画像を生成させてステップS105へ進む。   In step S103, the control unit 35 causes the character recognition unit 32 to perform character recognition and proceeds to step S104. In step S104, the control unit 35 sends an instruction to the character generation unit 33 to generate a character image in which the character string “Aiue” recognized by the character recognition unit 32 is clarified, and the process proceeds to step S105.

ステップS105において、制御部35は色変換部36へ指示を送り、上述した色変換を行わせてステップS106へ進む。なお、色変換処理は、ステップS103、S104と並行して行わせても構わない。   In step S105, the control unit 35 sends an instruction to the color conversion unit 36 to cause the above-described color conversion to proceed to step S106. Note that the color conversion process may be performed in parallel with steps S103 and S104.

ステップS106において、制御部35は合成部34へ指示を送り、色変換後のフレーム画像に上記文字画像を合成させてステップS107へ進む。ステップS107において、制御部35は、上記合成されたフレーム画像の投映に必要な映像信号をプロジェクタ10へ送出してステップS108へ進む。   In step S106, the control unit 35 sends an instruction to the synthesizing unit 34, synthesizes the character image with the color-converted frame image, and proceeds to step S107. In step S107, the control unit 35 sends a video signal necessary for projecting the synthesized frame image to the projector 10 and proceeds to step S108.

ステップS108において、制御部35は、文字認識(S103)を行ったフレーム画像、認識された文字列の内容、および色変換(S105)後のフレーム画像のデータを、それぞれ記憶部37に記憶させてステップS109へ進む。   In step S108, the control unit 35 causes the storage unit 37 to store the frame image that has undergone character recognition (S103), the contents of the recognized character string, and the data of the frame image after color conversion (S105). The process proceeds to step S109.

ステップS109において、制御部35は、終了操作が行われたか否かを判定する。制御部35は、人物Aによってプレゼンテーションの終了が指示されると、ステップS109を肯定判定して図5による処理を終了させる。制御部35は、プレゼンテーションの終了が指示されない場合には、ステップS109を否定判定してステップS101へ戻る。   In step S109, the control unit 35 determines whether or not an end operation has been performed. When the end of the presentation is instructed by the person A, the control unit 35 makes an affirmative determination in step S109 and ends the processing in FIG. If the end of the presentation is not instructed, the control unit 35 makes a negative determination in step S109 and returns to step S101.

なお、本実施形態においては、マーカーペン50の書き込みによってスクリーン40が汚れた場合は、人物Aがマーカーペン50の書き込みを消すものとする。書き込みが消されると筆跡検出部31によって筆跡が検出されなくなるので、制御部35は、上述した色変換処理や文字生成処理等をキャンセルする。   In the present embodiment, it is assumed that the person A erases the writing of the marker pen 50 when the screen 40 becomes dirty due to the writing of the marker pen 50. When the writing is erased, the handwriting detection unit 31 does not detect the handwriting, so the control unit 35 cancels the above-described color conversion processing, character generation processing, and the like.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)投映制御装置30は、スクリーン40を撮像するデジタルカメラ20で撮像された画像データに基づいて、スクリーン40上に書かれた書き込み「あいうえ」を目立たなくするフレーム画像(図4(c))を生成する色変換部36と、「あいうえ」に基づく文字画像をフレーム画像(図4(c))に付加する合成部34と、を備え、文字画像が付加されたフレーム画像をプロジェクタ10から投映させるようにした。これにより、簡単な構成で、スクリーンへ40の書き込みに基づく情報を、適切に投映できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The projection control device 30 makes a frame image (FIG. 4 (c) that makes the writing “aiue” written on the screen 40 inconspicuous based on the image data captured by the digital camera 20 that captures the screen 40. )) And a composition unit 34 for adding the character image based on “Aiue” to the frame image (FIG. 4C), and the frame image to which the character image is added is a projector. Projected from 10. Thereby, the information based on the writing of 40 on the screen can be appropriately projected with a simple configuration.

(2)上記(1)の投映制御装置30において、書き込み「あいうえ」の全部の態様を変更して清書した文字画像を文字生成部33で生成し、合成部34は、文字画像をフレーム画像(図4(c))に付加するようにした。これにより、スクリーン40上への書き込み「あいうえ」が読みにくい文字であっても、見やすい態様で投映できる。 (2) In the projection control device 30 of (1) above, the character generation unit 33 generates a character image that has been clarified by changing all aspects of the writing “aiue”, and the combining unit 34 converts the character image into a frame image. (FIG. 4 (c)). As a result, even if the character “AIUE” written on the screen 40 is difficult to read, it can be projected in an easy-to-see manner.

(3)上記(1)、(2)の投映制御装置30において、「あいうえ」の書き込み終了を検出する制御部35を備え、制御部35で上記検出がなされると、文字画像が付加されたフレーム画像をプロジェクタ10から投映させるようにした。これにより、適切なタイミングで清書文字の投映を行える。 (3) The projection control device 30 of the above (1) and (2) includes a control unit 35 that detects the end of writing of “Aiue”. When the control unit 35 detects the above, a character image is added. The frame image is projected from the projector 10. As a result, it is possible to project clear letters at an appropriate timing.

(4)上記投映制御装置30において、色変換部36は、スクリーン40上の書き込み「あいうえ」の彩度および明度と、「あいうえ」以外の背景の彩度および明度とを近づけるようにフレーム画像を生成したので、書き込み「あいうえ」そのものについては、背景部分に紛らせて参加者から視認されにくくすることができる。 (4) In the projection control device 30, the color conversion unit 36 performs a frame so that the saturation and brightness of the writing “Aiue” on the screen 40 are close to the saturation and brightness of the background other than “Aiue”. Since the image is generated, the writing “Aiue” itself can be confused with the background portion to make it difficult for the participant to see.

(5)上記投映制御装置30において、デジタルカメラ20で撮像された画像データ、上記フレーム画像のデータ、および文字画像が付加されたフレーム画像のデータを記憶部37に記憶させる制御部35を備えるので、スクリーン40上に書き込まれた状態や、その文字の内容を、後から検索可能にし得る。 (5) The projection control device 30 includes the control unit 35 that stores the image data captured by the digital camera 20, the frame image data, and the frame image data to which the character image is added in the storage unit 37. The state written on the screen 40 and the contents of the characters can be retrieved later.

(変形例1)
第一の実施形態では、ステップS102(図4)において、人物Aによる一連の書き込みの終了を制御部35が判断したタイミングで、色変換部36が色変換を開始し、文字認識部32が文字認識処理を開始する例を説明した。この代わりに、人物Aによって文字認識の対象を示す書き込み(対象を囲む、または対象に下線もしくは傍線を引く)が行われたことを筆跡検出部31が検出したタイミングで、色変換部36が色変換を開始し、文字認識部32が文字認識処理を開始するように構成してもよい。
(Modification 1)
In the first embodiment, in step S102 (FIG. 4), the color conversion unit 36 starts color conversion at the timing when the control unit 35 determines the end of a series of writing by the person A, and the character recognition unit 32 detects characters. An example of starting the recognition process has been described. Instead, at the timing when the handwriting detection unit 31 detects that the person A has performed writing indicating the target of character recognition (surrounding the target or drawing an underline or sideline on the target), the color conversion unit 36 changes the color. You may comprise so that conversion may be started and the character recognition part 32 may start a character recognition process.

文字生成部33が文字認識部32によって認識された文字列「あいうえ」を清書した文字画像を生成する点、合成部34が色変換後のフレーム画像に上記文字画像を合成する点、および合成後のフレーム画像をプロジェクタ10から投映させる点は、上記第一実施形態の場合と同様である。   The character generating unit 33 generates a character image in which the character string “Aiue” recognized by the character recognizing unit 32 is printed, the combining unit 34 combines the character image with the frame image after color conversion, and the combining The point that the subsequent frame image is projected from the projector 10 is the same as in the case of the first embodiment.

変形例1の筆跡検出部31は、筆跡(白地におけるピンク色)において、例えば円もしくは楕円、または四辺形等からなる囲みを検出する。この場合の色変換部36は、囲みを含む書き込み全てを色変換の対象とし、文字認識部32は、囲みの内側の書き込みを文字認識の対象とする。または、変形例1の筆跡検出部31は、筆跡(白地におけるピンク色)において下線や傍線を検出する。この場合の色変換部36は、下線、傍線を含む書き込み全てを色変換の対象とし、文字認識部32は、下線、傍線に対応する書き込みを文字認識の対象とする。   The handwriting detection unit 31 according to the first modification detects, for example, a circle or an ellipse or a quadrangle surrounded by a handwriting (pink on a white background). In this case, the color conversion unit 36 sets all writing including a box as a target of color conversion, and the character recognition unit 32 sets writing inside the box as a target of character recognition. Or the handwriting detection part 31 of the modification 1 detects an underline and a side line in a handwriting (pink in a white background). In this case, the color conversion unit 36 sets all writing including underline and side line as the target of color conversion, and the character recognition unit 32 sets writing corresponding to the underline and side line as the target of character recognition.

変形例1によれば、文字が連なっていることにより文字認識の対象範囲の切り分けが困難な場合や、人物Aが誤って書き込んだ場合など、人物Aが清書文字としての投映を望まない場合において、適切に文字認識を行わせることが可能になる。また、囲みや下線、傍線を色変換の対象に含めたので、マーカーペン50による書き込みは全て、背景部分のグレーに紛らせて参加者から視認されにくくすることができる。   According to the first modification, in the case where the character A does not want to be projected as a clear character, such as when it is difficult to separate the target range for character recognition due to the continuous character, or when the character A writes it in error Thus, it is possible to properly perform character recognition. In addition, since the box, underline, and side line are included in the target of color conversion, all writing by the marker pen 50 can be obscured by the participant by making it gray in the background portion.

(変形例2)
上述した変形例1において、人物Aが文字認識の対象を示す書き込み(対象を囲む、または対象に下線、傍線を引く)を行うまでは、書き込み箇所を強調する投映をプロジェクタ10から行うように構成してもよい。
(Modification 2)
In the first modification described above, the projector 10 is configured to perform projection that emphasizes the writing position until the person A performs writing indicating the object of character recognition (surrounding the object or drawing an underline or a side line on the object). May be.

変形例2の色変換部36は、人物Aによってマーカーペン50による書き込みが行われると、一旦はマーカーペン50による書き込みを視認しやすくするための色変換(第1色変換と呼ぶ)を行い、人物Aによって文字認識の対象を示す書き込みが行われると、マーカーペン50による書き込みを視認しにくくするための色変換(第2色変換と呼ぶ)を行う。第2色変換は、上述した第一の実施形態や変形例1で行った色変換に相当する。   The color conversion unit 36 of Modification 2 performs color conversion (referred to as first color conversion) to make it easy to visually recognize the writing by the marker pen 50 once writing by the marker pen 50 is performed by the person A. When writing indicating the character recognition target is performed by the person A, color conversion (referred to as second color conversion) for making the writing with the marker pen 50 difficult to visually recognize is performed. The second color conversion corresponds to the color conversion performed in the first embodiment and the first modification described above.

変形例2の制御部35は、筆跡検出部31で筆跡(白地におけるピンク色)が検出されると、色変換部36に第1色変換を開始させる。この場合の色変換部36は、図4(a)のフレーム画像のうち、筆跡検出部31によって検出された書き込み部分を、例えばマゼンタに色変換する。制御部35は、第1色変換後のフレーム画像をスクリーン40に投映するように、プロジェクタ10へ投映信号を送る。人物Aによって書き込まれた部分は、ピンク色の上からマゼンタが重なって彩度が高まる。このため、人物Aは、ピンク色の書き込みがマゼンタの投映光で強調されるため、スクリーン40上で自己の書き込み内容を容易に視認し得る。   When the handwriting detection unit 31 detects a handwriting (pink on a white background), the control unit 35 of Modification 2 causes the color conversion unit 36 to start the first color conversion. In this case, the color conversion unit 36 converts the writing portion detected by the handwriting detection unit 31 in the frame image of FIG. 4A to magenta, for example. The control unit 35 sends a projection signal to the projector 10 so that the frame image after the first color conversion is projected on the screen 40. In the portion written by the person A, the magenta overlaps from above the pink color, and the saturation increases. Therefore, the person A can easily visually recognize his / her writing content on the screen 40 because the pink writing is emphasized by the magenta projection light.

人物Aが、文字認識の対象範囲を示す書き込み(対象を囲む、または対象に下線もしくは傍線を引く)を行うと、色変換部36は、筆跡検出部31によって囲みまたは下線、傍線が検出されたタイミングで、囲みまたは下線、傍線を含む書き込み部分を、書き込み色の補色(インク色がピンクの場合はグリーン)に第2色変換として色変換する。なお、書き込み部分以外の背景部分を中間階調(グレー)に色変換する処理も、第2色変換処理に含める。   When the person A performs writing indicating the target range of character recognition (surrounds the object or draws an underline or a side line), the color conversion unit 36 detects the surrounding, underline, or side line by the handwriting detection unit 31. At the timing, the writing portion including the box, underline, and side line is color-converted to the complementary color of the writing color (green when the ink color is pink) as the second color conversion. Note that the process of converting the background part other than the writing part into the intermediate gradation (gray) is also included in the second color conversion process.

変形例2の文字認識部32は、筆跡検出部31によって上記文字認識の対象を示す書き込みが検出されたタイミングで、文字認識処理を開始する。文字生成部33が文字認識部32によって認識された文字列「あいうえ」を清書した文字画像を生成する点、合成部34が第2色変換後のフレーム画像に上記文字画像を合成する点、および合成後のフレーム画像をプロジェクタ10から投映させる点は、上記第一実施形態や変形例1の場合と同様である。   The character recognition unit 32 of Modification 2 starts the character recognition process at the timing when the handwriting detection unit 31 detects writing indicating the character recognition target. A point that the character generation unit 33 generates a character image in which the character string “Aiue” recognized by the character recognition unit 32 is written, a point that the combining unit 34 combines the character image with the frame image after the second color conversion, The point that the combined frame image is projected from the projector 10 is the same as in the first embodiment and the first modification.

図6は、上述した変形例2の投映動作を行うために投映制御装置30の制御部35が実行する処理の流れを例示するフローチャートである。制御部35は、人物Aによってプレゼンテーションの開始が指示されると図6による処理を開始させる。図6において、ステップS102B〜ステップS102Dまでの処理が図5(第一の実施形態)と異なる。このため、図5との相違点のみを説明し、図5と共通する点については説明を省略する。   FIG. 6 is a flowchart illustrating the flow of processing executed by the control unit 35 of the projection control device 30 in order to perform the projection operation of Modification 2 described above. When the start of the presentation is instructed by the person A, the control unit 35 starts the processing shown in FIG. In FIG. 6, the processing from step S102B to step S102D is different from that in FIG. 5 (first embodiment). For this reason, only differences from FIG. 5 will be described, and description of points common to FIG. 5 will be omitted.

図6のステップS102Bにおいて、制御部35は、デジタルカメラ20から入力したフレーム画像データに基づいて、筆跡検出部31で筆跡検出(白地におけるピンク色)されたか否かを判定する。制御部35は、筆跡検出された場合にステップS102Bを肯定判定してステップS102Cへ進み、筆跡検出されない場合にはステップS102Bを否定判定してステップS101へ戻る。   In step S <b> 102 </ b> B of FIG. 6, the control unit 35 determines whether or not the handwriting detection unit 31 has detected handwriting (pink on a white background) based on the frame image data input from the digital camera 20. When the handwriting is detected, the control unit 35 makes a positive determination in step S102B and proceeds to step S102C. When the handwriting is not detected, the control unit 35 makes a negative determination in step S102B and returns to step S101.

ステップS102Cにおいて、制御部35は色変換部36へ指示を送り、上記第1色変換処理を行わせてステップS102Dへ進む。ステップS102Dにおいて、制御部35は、文字認識の対象を示す書き込みが検出されたか否かを判定する。制御部35は、筆跡検出部31によって上述した囲みまたは下線、傍線が検出された場合にステップ102Dを肯定判定してステップS103へ進み、囲みまたは下線、傍線が検出されない場合には、ステップ102Dを否定判定してステップS101へ戻る。   In step S102C, the control unit 35 sends an instruction to the color conversion unit 36, performs the first color conversion process, and proceeds to step S102D. In step S102D, the control unit 35 determines whether or not writing indicating a character recognition target is detected. The control unit 35 makes an affirmative decision in step 102D when the handwriting detection unit 31 detects the above-described box, underline, or side line, and proceeds to step S103. A negative determination is made and the process returns to step S101.

ステップS105の第2色変換は、図5における色変換(S105)と処理内容が共通である。   The second color conversion in step S105 has the same processing contents as the color conversion (S105) in FIG.

変形例2によれば、マーカーペン50の色が薄すぎる場合において、マーカーペン50による書き込みを強調するようにプロジェクタ10を制御したので、文字認識対象にしたい範囲を囲んだり、下線や傍線を引いたりする作業が人物Aにとってやりやすくなる。文字認識の対象範囲を示す書き込みが行われた後は、マーカーペン50による書き込みを視認しにくくするようにプロジェクタ10を制御したので、人物Aによって書き込まれた部分が背景部分のグレーに紛れ、参加者から視認されにくくなる。   According to the second modification, when the color of the marker pen 50 is too light, the projector 10 is controlled so as to emphasize the writing by the marker pen 50. Therefore, the range to be a character recognition target is surrounded, or an underline or a side line is drawn. Work for the person A is easier. After writing indicating the target range of character recognition, the projector 10 is controlled so that writing by the marker pen 50 is difficult to visually recognize. Therefore, the portion written by the person A is lost in gray in the background portion. It becomes difficult to see from the person.

一般に、マーカーペン50の色が濃いと、補色で濃い色を投映する必要が生じて投映画像が暗くなってしまう。これを避けるために薄い色のマーカーペン50を用いる場合において、変形例2は特に有効である。   Generally, when the color of the marker pen 50 is dark, it is necessary to project a dark color that is a complementary color, and the projected image becomes dark. In order to avoid this, the modification 2 is particularly effective when using the light-colored marker pen 50.

(第二の実施形態)
第二の実施形態では、文字認識部32によって認識された文字列を清書した文字画像を生成する代わりに、文字認識部32によって認識した文字列(例えば、図A)に対応づけられたイメージデータを取得する点が異なるので、この相違点を中心に説明する。
(Second embodiment)
In the second embodiment, instead of generating a character image in which the character string recognized by the character recognition unit 32 is clarified, image data associated with the character string recognized by the character recognition unit 32 (for example, FIG. A). Since the points to acquire are different, this difference will be mainly described.

<投映制御の説明>
図7は、第二の実施形態による投映制御装置30B、デジタルカメラ20、およびプロジェクタ10の要部構成を説明するブロック図である。投映制御装置30Bは、図3の投映制御装置30と比べて、文字生成部33の代わりにデータ取得部38を有する点が異なる。以下、図8を参照して説明する。図8(a)は、デジタルカメラ20から送信されたフレーム画像のうち、人物Aによる書き込み部分を例示する図である。図8(a)によれば、デジタルカメラ20で撮像された画面のスクリーン40に「図A」が書き込まれている。
<Explanation of projection control>
FIG. 7 is a block diagram illustrating the main configuration of the projection control device 30B, the digital camera 20, and the projector 10 according to the second embodiment. The projection control device 30B is different from the projection control device 30 in FIG. 3 in that it has a data acquisition unit 38 instead of the character generation unit 33. Hereinafter, a description will be given with reference to FIG. FIG. 8A is a diagram illustrating a portion written by the person A in the frame image transmitted from the digital camera 20. According to FIG. 8A, “FIG. A” is written on the screen 40 of the screen imaged by the digital camera 20.

スクリーン40の投映面は、第一の実施形態と同様に白地とし、マーカーペン50のインク色はパステルカラー(例えばピンク)とするが、図8(a)においては書き込み「図A」をわかりやすくするため、黒色で表している。   The projection surface of the screen 40 is white as in the first embodiment, and the ink color of the marker pen 50 is pastel color (for example, pink). In FIG. Therefore, it is shown in black.

第二の実施形態において、色変換部36が色変換を開始するタイミング、および文字認識部32が文字認識処理を開始するタイミングは、第一の実施形態と同様に人物Aが一連の書き込みを終えたタイミングとする。   In the second embodiment, the timing at which the color conversion unit 36 starts color conversion and the timing at which the character recognition unit 32 starts character recognition processing are the same as those in the first embodiment. Timing.

人物Aによる一連の書き込みが終了したことが制御部35によって判断されると、色変換部36は、図8(a)のフレーム画像のうち、筆跡検出部31によって検出された書き込み部分を書き込み色の補色(インク色がピンクの場合はグリーン)に色変換する。図8(b)は、図8(a)のフレーム画像から書き込み部分が補色に色変換されたフレーム画像を例示する図である。図8(b)においては、色変換後の書き込み部分「図A」を中間階調で表している。   When the control unit 35 determines that the series of writing by the person A has been completed, the color conversion unit 36 writes the writing portion detected by the handwriting detection unit 31 in the frame image of FIG. Is converted to a complementary color (green when the ink color is pink). FIG. 8B is a diagram illustrating a frame image in which the writing portion is color-converted to a complementary color from the frame image of FIG. In FIG. 8B, the written portion “FIG. A” after color conversion is represented by an intermediate gradation.

色変換部36はさらに、図8(b)のフレーム画像のうち、書き込み部分以外の背景部分を中間階調(グレー)に色変換する。図8(c)は、図8(b)のフレーム画像の背景部分がグレーに色変換されたフレーム画像を例示する図である。   Further, the color conversion unit 36 performs color conversion of the background portion other than the writing portion in the frame image of FIG. 8B to an intermediate gradation (gray). FIG. 8C illustrates a frame image in which the background portion of the frame image in FIG. 8B is color-converted to gray.

一方、文字認識部32は、筆跡検出部31で検出された書き込み部分に対して公知の文字認識処理を行う。データ取得部38は、文字認識部32によって認識した文字列(例えば、図A)にあらかじめ対応づけられているイメージデータを、サーバー60から取得する。データ取得部38によるデータ取得処理は、図5におけるフローチャートのステップS104の処理に代えて行わせる。   On the other hand, the character recognition unit 32 performs a known character recognition process on the writing portion detected by the handwriting detection unit 31. The data acquisition unit 38 acquires image data associated with a character string (for example, FIG. A) recognized by the character recognition unit 32 in advance from the server 60. The data acquisition process by the data acquisition unit 38 is performed instead of the process of step S104 in the flowchart in FIG.

合成部34は、図8(c)のフレーム画像の上から、データ取得部38で取得されたイメージデータによる画像80を重ね合成したフレーム画像を生成する。合成後のフレーム画像をプロジェクタ10から投映させる点は、上記第一実施形態や変形例1、2の場合と同様である。図8(d)は、スクリーン40に投映された画像を例示する図である。図8(d)によれば、人物Aによって書き込まれた部分は、ピンク色の上から補色(グリーン)が重なって彩度が低下し、参加者にグレーとして視認される。また、上述したように書き込み部分以外の背景部分もグレーとして視認される。以上のことから、人物Aによって書き込まれた部分は、背景部分のグレーに紛れて参加者から視認されにくくなる。これに対して画像80は、上述したグレーを背景に表されるので参加者から視認されやすい。   The synthesizing unit 34 generates a frame image obtained by superimposing and synthesizing the image 80 based on the image data acquired by the data acquiring unit 38 from the frame image of FIG. The point that the combined frame image is projected from the projector 10 is the same as in the first embodiment and the first and second modifications. FIG. 8D is a diagram illustrating an image projected on the screen 40. According to FIG. 8 (d), the portion written by the person A is reduced in saturation due to overlapping of the complementary color (green) from above the pink color, and is visually recognized as gray by the participant. Further, as described above, the background portion other than the writing portion is also visually recognized as gray. From the above, the part written by the person A is confused with the gray background part and is not easily seen by the participants. On the other hand, since the image 80 is displayed with the above-described gray background, it is easy for a participant to visually recognize the image 80.

以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)投映制御装置30Bは、スクリーン40を撮像するデジタルカメラ20で撮像された画像データに基づいて、スクリーン40上に書かれた書き込み「図A」を目立たなくするフレーム画像(図8(c))を生成する色変換部36と、「図A」に基づく画像80をフレーム画像(図8(c))に付加する合成部34と、を備え、画像80が付加されたフレーム画像をプロジェクタ10から投映させるようにした。これにより、簡単な構成で、スクリーンへ40の書き込みに基づく情報を、適切に投映できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The projection control device 30B makes a frame image (FIG. 8 (c) that makes the writing “FIG. A” written on the screen 40 inconspicuous based on the image data captured by the digital camera 20 that captures the screen 40. )) And a compositing unit 34 for adding the image 80 based on “FIG. A” to the frame image (FIG. 8C), and the frame image with the image 80 added thereto is a projector. Projected from 10. Thereby, the information based on the writing of 40 on the screen can be appropriately projected with a simple configuration.

(2)上記投映制御装置30Bにおいて、合成部34は、書き込み「図A」にあらかじめ関連付けられている画像80を、フレーム画像(図8(c))に付加する。これにより、文字だけでなく所定の画像を投映させることもできる。 (2) In the projection control device 30B, the compositing unit 34 adds the image 80 associated in advance with the writing “FIG. A” to the frame image (FIG. 8C). Thereby, not only characters but also a predetermined image can be projected.

(3)上記投映制御装置30Bにおいて、「図A」の書き込み終了を検出する制御部35を備え、制御部35で上記検出がなされると、画像80が付加されたフレーム画像をプロジェクタ10から投映させるようにした。これにより、適切なタイミングで画像80の投映を行える。 (3) The projection control device 30B includes a control unit 35 that detects the completion of the writing of “FIG. A”. When the control unit 35 performs the detection, the frame image with the image 80 added is projected from the projector 10. I tried to make it. Thereby, the image 80 can be projected at an appropriate timing.

以上の説明では、人物Aがマーカーペン50の書き込みを消すように説明した。この代わりに、時間の経過とともにインク色が消えるペンを用いてもよい。   In the above description, the person A erases the writing of the marker pen 50. Instead of this, a pen whose ink color disappears with time may be used.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。各実施形態および各変形例は、適宜組み合わせて構わない。   The above description is merely an example, and is not limited to the configuration of the above embodiment. Each embodiment and each modification may be appropriately combined.

10…プロジェクタ
20…デジタルカメラ
30、30B…投映制御装置
33…文字生成部
34…合成部
35…制御部
36…色変換部
40…スクリーン
50…マーカーペン
60…サーバー
80…画像
A…人物
DESCRIPTION OF SYMBOLS 10 ... Projector 20 ... Digital camera 30, 30B ... Projection control apparatus 33 ... Character production | generation part 34 ... Composition part 35 ... Control part 36 ... Color conversion part 40 ... Screen 50 ... Marker pen 60 ... Server 80 ... Image A ... Person

Claims (8)

スクリーンへ画像を投映するプロジェクタを制御する第1制御部と、
前記スクリーンを撮像するカメラを制御する第2制御部と、
前記カメラで撮像された画像データに基づいて、前記スクリーン上に書かれた第1情報を目立たなくする第1画像を生成する画像生成部と、
前記第1情報に基づく第2情報を前記第1画像に付加する画像合成部と、を備え、
前記第1制御部は、前記第2情報が付加された前記第1画像を前記プロジェクタから投映させることを特徴とする投映制御装置。
A first control unit that controls a projector that projects an image on a screen;
A second control unit that controls a camera that images the screen;
An image generating unit that generates a first image that makes the first information written on the screen inconspicuous based on image data captured by the camera;
An image composition unit for adding second information based on the first information to the first image,
The projection control apparatus, wherein the first control unit projects the first image to which the second information is added from the projector.
請求項1に記載の投映制御装置において、
前記画像合成部は、前記第1情報の全部、または前記第1情報のうち所定範囲内の情報の態様を変更して前記第2情報を生成し、前記第1画像に付加することを特徴とする投映制御装置。
The projection control device according to claim 1,
The image composition unit generates the second information by changing the aspect of information within a predetermined range of the first information or the first information, and adds the second information to the first image. Projection control device.
請求項1に記載の投映制御装置において、
前記画像合成部は、前記第1情報の全部、または前記第1情報のうち所定範囲内の情報にあらかじめ関連付けられている前記第2情報を、前記第1画像に付加することを特徴とする投映制御装置。
The projection control device according to claim 1,
The image synthesizing unit adds the second information previously associated with all of the first information or information within a predetermined range of the first information to the first image. Control device.
請求項2または3に記載の投映制御装置において、
前記第1情報の書き込み終了を検出、または前記第1情報のうち前記所定範囲を示す書き込みを検出する検出部をさらに備え、
前記第1制御部は、前記検出部で前記検出されると、前記第2情報が付加された前記第1画像を前記プロジェクタから投映させることを特徴とする投映制御装置。
In the projection control device according to claim 2 or 3,
A detection unit for detecting completion of writing of the first information or detecting writing indicating the predetermined range in the first information;
The first control unit, when detected by the detection unit, projects the first image to which the second information is added from the projector.
請求項4に記載の投映制御装置において、
前記画像生成部は、前記カメラで撮像された画像データに基づいて、前記第1情報を目立たせる第2画像を生成し、
前記第1制御部は、前記検出部が前記第1情報の書き込み終了を検出する前、または前記検出部が前記第1情報のうち前記所定範囲を示す書き込みを検出する前に、前記第2画像を前記プロジェクタから投映させることを特徴とする投映制御装置。
The projection control device according to claim 4,
The image generation unit generates a second image that makes the first information stand out based on image data captured by the camera,
The first control unit may include the second image before the detection unit detects the end of writing of the first information, or before the detection unit detects writing indicating the predetermined range in the first information. Projection control apparatus for projecting from the projector.
請求項5に記載の投映制御装置において、
前記画像生成部は、前記スクリーン上の前記第1情報の彩度を高めるように前記第2画像を生成することを特徴とする投映制御装置。
The projection control device according to claim 5,
The projection control apparatus, wherein the image generation unit generates the second image so as to increase a saturation of the first information on the screen.
請求項1〜6のいずれか一項に記載の投映制御装置において、
前記画像生成部は、前記スクリーン上の前記第1情報の彩度および明度と、前記第1情報以外の背景の彩度および明度とを近づけるように前記第1画像を生成することを特徴とする投映制御装置。
In the projection control apparatus as described in any one of Claims 1-6,
The image generation unit generates the first image so that the saturation and brightness of the first information on the screen are close to the saturation and brightness of a background other than the first information. Projection control device.
請求項1〜7のいずれか一項に記載の投映制御装置において、
前記カメラで撮像された画像データ、前記第1画像のデータ、および前記第2画像のデータを記憶部材に記憶させる記憶制御部をさらに備えることを特徴とする投映制御装置。
In the projection control apparatus as described in any one of Claims 1-7,
A projection control apparatus, further comprising: a storage control unit that stores image data captured by the camera, data of the first image, and data of the second image in a storage member.
JP2013039123A 2013-02-28 2013-02-28 Projection control device Pending JP2014167701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013039123A JP2014167701A (en) 2013-02-28 2013-02-28 Projection control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013039123A JP2014167701A (en) 2013-02-28 2013-02-28 Projection control device

Publications (1)

Publication Number Publication Date
JP2014167701A true JP2014167701A (en) 2014-09-11

Family

ID=51617363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013039123A Pending JP2014167701A (en) 2013-02-28 2013-02-28 Projection control device

Country Status (1)

Country Link
JP (1) JP2014167701A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533233A (en) * 2015-10-16 2018-11-08 ハンミ アイティー カンパニー,リミテッド Content generation method and apparatus
JP2020020938A (en) * 2018-07-31 2020-02-06 セイコーエプソン株式会社 Projector, projection system, and projection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533233A (en) * 2015-10-16 2018-11-08 ハンミ アイティー カンパニー,リミテッド Content generation method and apparatus
JP2020020938A (en) * 2018-07-31 2020-02-06 セイコーエプソン株式会社 Projector, projection system, and projection method
JP7147336B2 (en) 2018-07-31 2022-10-05 セイコーエプソン株式会社 Projection method and projection system
US11480863B2 (en) 2018-07-31 2022-10-25 Seiko Epson Corporation Projector that lowers visibility of base image, projection system and projection method

Similar Documents

Publication Publication Date Title
CN106664465B (en) System for creating and reproducing augmented reality content and method using the same
JP5880182B2 (en) Image generating apparatus, image generating method, and program
US20120092516A1 (en) Imaging device and smile recording program
JP4732303B2 (en) Imaging device
US8411911B2 (en) Image processing apparatus, image processing method, and storage medium for storing program
JP4910975B2 (en) Information processing apparatus, instruction system, and control program
JP5402018B2 (en) Display device and imaging device
JP2009223527A (en) Image processor, image processing method, and computer program for image processing
JP5949030B2 (en) Image generating apparatus, image generating method, and program
US20130076854A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20140233858A1 (en) Image creating device, image creating method and recording medium storing program
JP2013125181A (en) Projector
JP2010034820A (en) Projector, control method of projector, and control program
JP2014167701A (en) Projection control device
JP2009223524A (en) Image processor, image processing method, and computer program for image processing
US11102425B2 (en) Image processing apparatus and image processing method
JP6327892B2 (en) Imaging apparatus and control method thereof
JP2015184701A (en) Image processing apparatus, image processing method, and program
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP2014174855A (en) Image processor, image processing method and program
JP6390075B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2019017074A (en) Electronic apparatus and image processing program
JP5740934B2 (en) Subject detection apparatus, subject detection method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP2007165946A (en) Apparatus and method of correcting object image