JP7302640B2 - Display device operation method and display device - Google Patents

Display device operation method and display device Download PDF

Info

Publication number
JP7302640B2
JP7302640B2 JP2021168768A JP2021168768A JP7302640B2 JP 7302640 B2 JP7302640 B2 JP 7302640B2 JP 2021168768 A JP2021168768 A JP 2021168768A JP 2021168768 A JP2021168768 A JP 2021168768A JP 7302640 B2 JP7302640 B2 JP 7302640B2
Authority
JP
Japan
Prior art keywords
image
condition
area
displayed
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021168768A
Other languages
Japanese (ja)
Other versions
JP2022017323A (en
JP2022017323A5 (en
Inventor
喜照 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019106718A external-priority patent/JP2020201330A/en
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021168768A priority Critical patent/JP7302640B2/en
Publication of JP2022017323A publication Critical patent/JP2022017323A/en
Publication of JP2022017323A5 publication Critical patent/JP2022017323A5/ja
Application granted granted Critical
Publication of JP7302640B2 publication Critical patent/JP7302640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置の動作方法および表示装置に関する。 The present invention relates to a method of operating a display device and a display device.

特許文献1には、PC(Personal Computer)等の画像データ供給装置から供給される画像データが示す画像を表示する表示装置が記載されている。
特許文献1に記載の表示装置は、画像データ供給装置から第1画像データを受けると、第1画像データを第1バッファーに記憶する。続いて、表示装置は、第1バッファーに記憶されている第1画像データが示す第1画像を、表示面における第2領域に表示する。表示装置は、その後、画像データ供給装置から第2画像データを受けると、第2画像データを第2バッファーに記憶する。続いて、表示装置は、第2バッファーに記憶されている第2画像データが示す第2画像を、第1画像に代えて第2領域に表示し、かつ、第1バッファーに記憶されている第1画像データが示す第1画像を、表示面における第1領域に表示する。
Japanese Unexamined Patent Application Publication No. 2002-200003 describes a display device that displays an image represented by image data supplied from an image data supply device such as a PC (Personal Computer).
The display device described in Patent Document 1 stores the first image data in the first buffer upon receiving the first image data from the image data supply device. Subsequently, the display device displays the first image indicated by the first image data stored in the first buffer on the second area of the display surface. When the display device subsequently receives the second image data from the image data supply device, it stores the second image data in the second buffer. Subsequently, the display device displays the second image indicated by the second image data stored in the second buffer in the second area instead of the first image, and displays the second image data stored in the first buffer. A first image represented by one image data is displayed in a first area on the display surface.

特開2008-225175号公報JP 2008-225175 A

特許文献1に記載の表示装置は、第2画像データを受ける前に電子ペン等の指示体の操作に応じて第2領域における第1画像に対して線等の書込みが実行されても、第2画像データを受けると、第1バッファーに記憶されている第1画像データが示す第1画像、すなわち、書込みが反映されていない第1画像を第1領域に表示してしまう。このため、特許文献1に記載の表示装置は、第2領域において実行された書込み内容の表示を残したい場合であっても、当該書込みの内容を第1領域に表示できない。 In the display device described in Patent Document 1, even if a line or the like is written on the first image in the second area in response to an operation of an indicator such as an electronic pen before receiving the second image data, the When the second image data is received, the first image indicated by the first image data stored in the first buffer, that is, the first image in which the writing is not reflected is displayed in the first area. For this reason, the display device described in Patent Document 1 cannot display the contents of the writing in the first area even if it is desired to leave the display of the contents of writing executed in the second area.

本発明に係る動作方法の一態様は、表示面に画像を表示する表示装置が実行する動作方法であって、前記表示面のうち第1領域に第1画像を表示し、かつ、前記表示面のうち前記第1領域とは異なる第2領域に第2画像を表示し、前記第2画像に対する書込み操作に基づく書込み画像を前記第2画像に重畳することによって生成される第3画像を、前記第2画像に代えて前記第2領域に表示し、前記第1領域に表示される画像と前記第2領域に表示される画像とを変更する条件が満たされるか否かを判定し、前記第1領域に前記第1画像が表示され、かつ前記第2領域に前記第3画像が表示される状況において、前記判定において前記条件が満たされると判定した場合、前記第1領域に表示される画像を、前記第1画像から前記第3画像に変更し、かつ、前記第2領域に表示される画像を、前記第3画像から第4画像に変更する。 One aspect of the operation method according to the present invention is an operation method executed by a display device that displays an image on a display surface, wherein a first image is displayed on a first region of the display surface, and A third image generated by displaying a second image in a second area different from the first area and superimposing a writing image based on a writing operation on the second image on the second image, determining whether a condition for displaying the image in the second area instead of the second image and changing the image displayed in the first area and the image displayed in the second area is satisfied; In a situation where the first image is displayed in the first area and the third image is displayed in the second area, if it is determined in the determination that the condition is satisfied, the image displayed in the first area. is changed from the first image to the third image, and the image displayed in the second area is changed from the third image to the fourth image.

本発明に係る表示装置の一態様は、表示面に画像を表示する表示装置であって、前記表示面のうち第1領域に第1画像を表示し、かつ、前記表示面のうち前記第1領域とは異なる第2領域に第2画像を表示する表示部と、前記表示部を制御する表示制御部と、前記第1領域に表示される画像と前記第2領域に表示される画像とを変更する条件が満たされるか否かを判定する判定部と、を含み、前記表示制御部は、前記第2画像に対する書込み操作に基づく書込み画像を前記第2画像に重畳することによって生成される第3画像を、前記第2画像に代えて前記第2領域に表示する動作を、前記表示部に実行させ、前記第1領域に前記第1画像が表示され、かつ前記第2領域に前記第3画像が表示される状況において、前記条件が満たされると判定した場合、前記第1領域に表示される画像を、前記第1画像から前記第3画像に変更しかつ前記第2領域に表示される画像を、前記第3画像から第4画像に変更する動作を、前記表示部に実行させる。 One aspect of the display device according to the present invention is a display device that displays an image on a display surface, wherein a first image is displayed on a first region of the display surface, and the first image is displayed on the first region of the display surface. a display unit that displays a second image in a second area different from the area; a display control unit that controls the display unit; and an image displayed in the first area and an image displayed in the second area. a determination unit that determines whether a change condition is satisfied, wherein the display control unit generates a second image generated by superimposing a writing image based on a writing operation on the second image on the second image. causing the display unit to perform an operation of displaying three images in the second area instead of the second image, the first image being displayed in the first area, and the third image being displayed in the second area; In a situation where an image is displayed, if it is determined that the condition is satisfied, the image displayed in the first area is changed from the first image to the third image and displayed in the second area. The display unit is caused to change the image from the third image to the fourth image.

第1実施形態に係るプロジェクター1を含むプロジェクターシステム1000を示す図である。1 is a diagram showing a projector system 1000 including a projector 1 according to a first embodiment; FIG. プロジェクターシステム1000を示す図である。1 shows a projector system 1000; FIG. プロジェクターシステム1000を示す図である。1 shows a projector system 1000; FIG. プロジェクターシステム1000を示す図である。1 shows a projector system 1000; FIG. 指示体2の一例を示す図である。4A and 4B are diagrams showing an example of an indicator 2; FIG. プロジェクター1の一例を示す図である。1 is a diagram showing an example of a projector 1; FIG. 指示体2の動作シーケンスを説明するための図である。4A and 4B are diagrams for explaining an operation sequence of the indicator 2; FIG. 書込み動作の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of a write operation; 画像切替え動作の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of an image switching operation; 第3変形例を説明するための図である。It is a figure for demonstrating the 3rd modification. 変更条件が第6条件である場合における画像切替え動作の一例を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining an example of an image switching operation when the change condition is the sixth condition; FIG.

A:第1実施形態
A1:プロジェクターシステム1000の概要
図1は、第1実施形態に係るプロジェクター1を含むプロジェクターシステム1000を示す図である。プロジェクターシステム1000は、プロジェクター1と、指示体2と、を含む。
A: First Embodiment A1: Overview of Projector System 1000 FIG. 1 is a diagram showing a projector system 1000 including a projector 1 according to the first embodiment. A projector system 1000 includes a projector 1 and an indicator 2 .

プロジェクター1は、壁のうち、投射面4の上端4aよりも上方の部分に設置される。プロジェクター1は、壁に設置されずに、例えば、机、テーブルまたは床の上に配置されてもよいし、天井から吊るされてもよい。投射面4は、例えば、ホワイトボードである。投射面4は、ホワイトボードに限らず、例えば、壁に固定されているスクリーン、壁の一部分または扉でもよい。投射面4は、表示面の一例である。 The projector 1 is installed on a portion of the wall above the upper end 4 a of the projection surface 4 . The projector 1 may be placed, for example, on a desk, table, or floor instead of being installed on the wall, or may be hung from the ceiling. The projection surface 4 is, for example, a whiteboard. The projection surface 4 is not limited to a whiteboard, but may be, for example, a screen fixed to a wall, a portion of a wall, or a door. The projection surface 4 is an example of a display surface.

プロジェクター1は、PC3から画像データを受ける。プロジェクター1は、PC3から有線で画像データを受ける。プロジェクター1は、PC3から無線で画像データを受けてもよい。 The projector 1 receives image data from the PC3. The projector 1 receives image data from the PC 3 by wire. The projector 1 may receive image data wirelessly from the PC 3 .

画像データは、例えば、授業の資料となる画像を示すデータである。画像データは、授業の資料となる画像を示すデータに限らず、例えば、プレゼンテーションの資料となる画像を示すデータでもよい。各画像データは、資料における1ページの内容を表す。PC3からは、資料におけるページの昇順にしたがって画像データが提供される。 The image data is, for example, data representing an image that serves as material for class. The image data is not limited to data representing an image that serves as material for a class, and may be data representing an image that serves as a presentation material, for example. Each image data represents the content of one page in the document. Image data is provided from the PC 3 according to the ascending order of pages in the material.

PC3は、画像データの供給元の一例である。画像データの供給元は、画像供給装置とも称され得る。画像データの供給元は、PC3に限らず、例えば、タブレット端末、スマートフォン、または、いわゆる書画カメラでもよい。 PC3 is an example of an image data supplier. A source of image data may also be referred to as an image supplier. The image data supply source is not limited to the PC 3, and may be, for example, a tablet terminal, a smartphone, or a so-called document camera.

プロジェクター1は、投射面4に画像を投射することによって投射面4に画像を表示する。図1では、プロジェクター1が画像Gを投射面4に表示する態様が示されている。プロジェクター1は、表示装置の一例である。表示装置は、プロジェクター1に限らず、ディスプレイ、例えば、FPD(Flat Panel Display)でもよい。FPDは、例えば、液晶ディスプレイ、プラズマディスプレイまたは有機EL(Electro Luminescence)ディスプレイである。以下、投射面4のうち、画像が投射される領域を「投射領域R」と称する。投射領域Rの形状は、プロジェクター1から投射される画像の形状となる。 The projector 1 displays an image on the projection surface 4 by projecting the image onto the projection surface 4 . FIG. 1 shows a mode in which the projector 1 displays an image G on the projection surface 4. As shown in FIG. The projector 1 is an example of a display device. The display device is not limited to the projector 1, and may be a display such as an FPD (Flat Panel Display). FPDs are, for example, liquid crystal displays, plasma displays, or organic EL (Electro Luminescence) displays. Hereinafter, the area on which the image is projected on the projection surface 4 will be referred to as a "projection area R". The shape of the projection area R is the shape of the image projected from the projector 1 .

ここで、プロジェクター1から投射される画像について、画像Gを用いて説明する。
画像Gは、横長の形状を有する。画像Gは、第1画像G1と第2画像G2とを含む。第1画像G1と第2画像G2は、横方向すなわち水平方向に並んでいる。第1画像G1の大きさは、第2画像G2の大きさと等しい。第1画像G1の大きさは、第2画像G2の大きさと異なってもよい。例えば、第1画像G1は、第2画像G2よりも大きくてもよい。第1画像G1は、第2画像G2よりも小さくてもよい。第1画像G1と第2画像G2は、相互に接触していてもよいし、相互に離れていてもよい。
Here, the image projected from the projector 1 will be described using the image G. FIG.
The image G has a horizontally long shape. The image G includes a first image G1 and a second image G2. The first image G1 and the second image G2 are arranged in the horizontal direction. The size of the first image G1 is equal to the size of the second image G2. The size of the first image G1 may differ from the size of the second image G2. For example, the first image G1 may be larger than the second image G2. The first image G1 may be smaller than the second image G2. The first image G1 and the second image G2 may be in contact with each other or may be separated from each other.

プロジェクター1は、投射領域Rのうち左側に位置する第1領域R1に第1画像G1を表示し、かつ、投射領域Rのうち右側に位置する第2領域R2に第2画像G2を表示する。 The projector 1 displays the first image G1 in the first region R1 located on the left side of the projection region R, and displays the second image G2 in the second region R2 located on the right side of the projection region R.

プロジェクター1が学校の授業で使用される場合、教師は、第2領域R2に表示される画像を用いて授業を進める。教師は、第1領域R1に表示される画像を補助的に用いる。例えば、第1領域R1には、第2領域R2において既に表示された画像が表示される。すなわち、第2領域R2に表示される画像が切り替わっても、第2領域R2において画像が切り替わる前に第2領域R2に表示されていた画像が、第1領域R1に表示される。
このため、第2領域R2において画像が切り替わる前に第2領域R2に表示されていた画像を生徒がノートに書く前に、第2領域R2に表示される画像が切り替わっても、生徒は、第2領域R2において画像が切り替わり前に第2領域R2に表示されていた画像を、ノートに書くことが可能になる。
When the projector 1 is used in a class at school, the teacher advances the class using the image displayed in the second area R2. The teacher uses the image displayed in the first area R1 as an auxiliary. For example, the image already displayed in the second region R2 is displayed in the first region R1. That is, even if the image displayed in the second region R2 is switched, the image displayed in the second region R2 before the image is switched in the second region R2 is displayed in the first region R1.
For this reason, even if the image displayed in the second region R2 changes before the student writes in the notebook the image that was displayed in the second region R2 before the image changes in the second region R2, the student can The image displayed in the second area R2 before the image is switched in the second area R2 can be written in a notebook.

第1画像G1は、PC3からプロジェクター1に供給された第1画像データが示す画像である。図1では、第1画像G1の一例として「AB」を示す画像が示されている。第1画像G1は、「AB」を示す画像に限らず、適宜変更可能である。
第2画像G2は、PC3からプロジェクター1に供給された第2画像データが示す画像である。図1では、第2画像G2の一例として「F」を示す画像が示されている。第2画像G2は、「F」を示す画像に限らず、適宜変更可能である。第2画像データは、第1画像データよりも時間的に後にPC3からプロジェクター1に供給される。
The first image G1 is an image represented by the first image data supplied from the PC 3 to the projector 1 . In FIG. 1, an image showing "AB" is shown as an example of the first image G1. The first image G1 is not limited to the image showing "AB" and can be changed as appropriate.
The second image G2 is an image indicated by the second image data supplied to the projector 1 from the PC3. In FIG. 1, an image showing "F" is shown as an example of the second image G2. The second image G2 is not limited to the image showing "F" and can be changed as appropriate. The second image data is supplied from the PC 3 to the projector 1 after the first image data.

第2画像G2には、画像の表示を更新するための更新ボタン6が重畳されている。図1では、更新ボタン6の一例として「ひし形の図形」を示す画像が示されている。更新ボタン6の形状は、ひし形に限らず、例えば円形または三角形でもよい。 An update button 6 for updating the display of the image is superimposed on the second image G2. In FIG. 1, an image showing a “rhombus figure” is shown as an example of the update button 6 . The shape of the update button 6 is not limited to a rhombus, and may be circular or triangular, for example.

指示体2は、例えば、ペン型の指示具である。指示体2の形状は、ペンの形状に限らず、例えば、円柱、角柱、円錐または角錐でもよい。ユーザーは、指示体2を用いることによって、プロジェクター1が投射する画像に対して操作を行う。ユーザーは、例えば、指示体2の軸部2bを持ち、先端2aを投射面4に接触させながら指示体2を投射面4上で移動する。 The indicator 2 is, for example, a pen-shaped indicator. The shape of the indicator 2 is not limited to the shape of a pen, and may be, for example, a cylinder, a prism, a cone, or a pyramid. The user operates the image projected by the projector 1 by using the indicator 2 . For example, the user holds the shaft portion 2 b of the indicator 2 and moves the indicator 2 on the projection surface 4 while keeping the tip 2 a in contact with the projection surface 4 .

プロジェクター1は、カメラ15で投射領域Rを含む領域を撮像することによって撮像データを生成する。プロジェクター1は、撮像データを解析することによって指示体2の位置、つまり、指示体2による操作位置を特定する。プロジェクター1は、例えば、指示体2による操作位置の軌跡に応じた線を投射面4に投射する。このため、ユーザーは、指示体2を用いることによって、書込み操作を実行できる。指示体2による操作位置の軌跡に応じた線は、書込み操作に基づく書込み画像の一例である。 The projector 1 generates imaging data by imaging an area including the projection area R with the camera 15 . The projector 1 identifies the position of the indicator 2 , that is, the operation position by the indicator 2 by analyzing the imaging data. The projector 1 projects, for example, a line corresponding to the trajectory of the operation position of the pointer 2 onto the projection surface 4 . Therefore, a user can perform a writing operation by using the pointer 2 . A line corresponding to the trajectory of the operation position of the pointer 2 is an example of a written image based on the writing operation.

指示体2の操作位置の軌跡に応じた線の色は、予め設定されてもよいし、不図示の色選択ボタンまたは不図示の色選択アイコンへの操作に応じて適宜変更されてもよい。 The color of the line corresponding to the trajectory of the operation position of the pointer 2 may be set in advance, or may be appropriately changed according to the operation of a color selection button (not shown) or a color selection icon (not shown).

図2では、書込み画像5の一例として、楕円を示す画像が示されている。図2に示す例では、書込み画像5を第2画像G2に重畳することによって生成される第3画像G3が、第2画像G2の代わりに第2領域R2に表示されている。
書込み画像5は、楕円を示す画像に限らず適宜変更可能である。第3画像G3に含まれる書込み画像5の数は1よりも多くてもよい。なお、プロジェクター1は、書込み画像5を第1画像G1に重畳することも可能である。
FIG. 2 shows an image representing an ellipse as an example of the writing image 5 . In the example shown in FIG. 2, a third image G3 generated by superimposing the written image 5 on the second image G2 is displayed in the second area R2 instead of the second image G2.
The written image 5 is not limited to an image showing an ellipse and can be changed as appropriate. The number of writing images 5 included in the third image G3 may be more than one. Note that the projector 1 can also superimpose the writing image 5 on the first image G1.

プロジェクター1は、撮像データを解析することによって指示体2による更新ボタン6への操作を検出すると、第2画像データよりも時間的に後にプロジェクター1に供給される後続画像データを要求する要求指示をユーザーから受けたと判定する。本実施形態では、後続画像データは、第2画像G2を示す画像データとは異なり、後続画像データが示す第4画像G4は、第2画像G2とは異なる。 When the projector 1 detects that the update button 6 has been operated by the indicator 2 by analyzing the imaging data, the projector 1 issues a request instruction requesting subsequent image data to be supplied to the projector 1 temporally later than the second image data. It is determined that it has been received from the user. In this embodiment, the subsequent image data is different from the image data representing the second image G2, and the fourth image G4 represented by the subsequent image data is different from the second image G2.

プロジェクター1は、ユーザーから要求指示を受けると、PC3に後続画像データを要求する。PC3は、後続画像データの要求を受けると、後続画像データをプロジェクター1に供給する。 Upon receiving a request instruction from the user, the projector 1 requests the PC 3 for subsequent image data. Upon receiving the request for subsequent image data, the PC 3 supplies the subsequent image data to the projector 1 .

プロジェクター1は、図2に示すように第1領域R1に第1画像G1が表示されかつ第2領域R2に第3画像G3が表示される状況において、後続画像データを受けると、第1領域R1に表示される画像を、第1画像G1から第3画像G3に変更し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する。このため、図3に示すように、書込み画像5を含む第3画像G3が、第2領域R2から第1領域R1に移動し、第2領域R2には第4画像G4が表示される。 When the projector 1 receives subsequent image data in a situation where the first image G1 is displayed in the first region R1 and the third image G3 is displayed in the second region R2 as shown in FIG. is changed from the first image G1 to the third image G3, and the image displayed in the second region R2 is changed from the third image G3 to the fourth image G4. Therefore, as shown in FIG. 3, the third image G3 including the writing image 5 moves from the second area R2 to the first area R1, and the fourth image G4 is displayed in the second area R2.

一方、プロジェクター1は、図1に示すように第1領域R1に第1画像G1が表示されかつ第2領域R2に第2画像G2が表示される状況において、後続画像データを受けると、第1領域R1に表示される画像を、第1画像G1から第2画像G2に変更し、かつ、第2領域R2に表示される画像を、第2画像G2から第4画像G4に変更する。このため、図4に示すように、第2画像G2が、第2領域R2から第1領域R1に移動し、第2領域R2には第4画像G4が表示される。 On the other hand, when the projector 1 receives subsequent image data in a situation where the first image G1 is displayed in the first region R1 and the second image G2 is displayed in the second region R2 as shown in FIG. The image displayed in the region R1 is changed from the first image G1 to the second image G2, and the image displayed in the second region R2 is changed from the second image G2 to the fourth image G4. Therefore, as shown in FIG. 4, the second image G2 moves from the second area R2 to the first area R1, and the fourth image G4 is displayed in the second area R2.

A2.指示体2の一例
図5は、指示体2の一例を示す図である。指示体2は、電源21と、第1通信部22と、第1光源23と、スイッチ24と、指示体記憶部25と、指示体制御部26と、を含む。
A2. Example of Indicator 2 FIG. 5 is a diagram showing an example of the indicator 2 . The indicator 2 includes a power source 21 , a first communication section 22 , a first light source 23 , a switch 24 , an indicator storage section 25 and an indicator control section 26 .

電源21は、第1通信部22と、第1光源23と、スイッチ24と、指示体記憶部25と、指示体制御部26とに電力を供給する。図5では、電源21が電力を供給するために用いる電力線は省略されている。電源21は、指示体2に設けられている不図示の電源ボタンがオンされると、電力の供給を開始する。電源21は、電源ボタンがオフされると、電力の供給を停止する。 The power supply 21 supplies power to the first communication section 22 , the first light source 23 , the switch 24 , the pointer storage section 25 and the pointer control section 26 . In FIG. 5, power lines used by the power supply 21 to supply power are omitted. The power supply 21 starts supplying power when a power button (not shown) provided on the pointer 2 is turned on. The power supply 21 stops supplying power when the power button is turned off.

第1通信部22は、プロジェクター1とBluetoothで無線通信する。Bluetoothは登録商標である。Bluetoothは、近距離無線方式の一例である。近距離無線方式は、Bluetoothに限らず、例えば、赤外線通信方式またはWi-Fiでもよい。Wi-Fiは登録商標である。第1通信部22とプロジェクター1との無線通信の通信方式は、近距離無線方式に限らず他の通信方式でもよい。
第1通信部22は、例えば、プロジェクター1から同期信号を受信する。同期信号は、指示体2の発光タイミングを、プロジェクター1におけるカメラ15の撮像タイミングに同期させるために用いられる。
The first communication unit 22 wirelessly communicates with the projector 1 via Bluetooth. Bluetooth is a registered trademark. Bluetooth is an example of a short-range wireless system. The short-range wireless system is not limited to Bluetooth, and may be, for example, an infrared communication system or Wi-Fi. Wi-Fi is a registered trademark. The communication method for wireless communication between the first communication unit 22 and the projector 1 is not limited to the short-range wireless method, and may be another communication method.
The first communication unit 22 receives a synchronization signal from the projector 1, for example. The synchronization signal is used to synchronize the light emission timing of the indicator 2 with the imaging timing of the camera 15 in the projector 1 .

第1光源23は、赤外光を出射するLED(Light Emitting Diode)である。第1光源23は、LEDに限らず、例えば、赤外光を出射するLD(Laser Diode)でもよい。第1光源23は、指示体2による操作位置をプロジェクター1に認識させるために、赤外光を出射する。 The first light source 23 is an LED (Light Emitting Diode) that emits infrared light. The first light source 23 is not limited to an LED, and may be, for example, an LD (Laser Diode) that emits infrared light. The first light source 23 emits infrared light to allow the projector 1 to recognize the position operated by the pointer 2 .

スイッチ24は、指示体2の先端2aに圧力が加わるとオンし、先端2aに加えられた圧力が解消されるとオフする。スイッチ24は、先端2aが投射面4に接触しているか否かを検出するセンサーとして機能する。 The switch 24 turns on when pressure is applied to the tip 2a of the indicator 2, and turns off when the pressure applied to the tip 2a is released. The switch 24 functions as a sensor that detects whether the tip 2a is in contact with the projection surface 4 or not.

指示体記憶部25は、例えば、フラッシュメモリー等の不揮発性の半導体メモリーである。指示体記憶部25は、指示体制御部26によって実行される制御プログラムと、指示体制御部26が使用する各種のデータと、を記憶する。 The pointer storage unit 25 is, for example, a non-volatile semiconductor memory such as flash memory. The pointer storage unit 25 stores a control program executed by the pointer controller 26 and various data used by the pointer controller 26 .

指示体制御部26は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、指示体制御部26は、単数または複数のCPU(Central Processing Unit)によって構成される。指示体制御部26の機能の一部または全部は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等の回路によって構成されてもよい。指示体制御部26は、各種の処理を並列的または逐次的に実行する。 The indicator control unit 26 is configured by, for example, one or more processors. For example, the pointer control unit 26 is configured by one or more CPUs (Central Processing Units). Some or all of the functions of the indicator control unit 26 are configured by circuits such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). good too. The pointer control unit 26 executes various processes in parallel or sequentially.

指示体制御部26は、指示体記憶部25に記憶されている制御プログラムを実行することによって種々の機能を実現する。 The indicator control unit 26 implements various functions by executing control programs stored in the indicator storage unit 25 .

例えば、指示体制御部26は、スイッチ24がオンしている状況では、同期信号の受信タイミングを基準に特定されるタイミングで第1光源23を点灯させる。 For example, when the switch 24 is on, the indicator control unit 26 lights the first light source 23 at the timing specified based on the reception timing of the synchronization signal.

A3.プロジェクター1の一例
図6は、プロジェクター1の一例を示す図である。プロジェクター1は、操作部11と、受光部12と、第2通信部13aと、画像データ受信部13bと、投射部14と、カメラ15と、記憶部16と、処理部17とを含む。
A3. Example of Projector 1 FIG. 6 is a diagram showing an example of the projector 1 . Projector 1 includes operation unit 11 , light receiving unit 12 , second communication unit 13 a , image data receiving unit 13 b , projection unit 14 , camera 15 , storage unit 16 , and processing unit 17 .

操作部11は、例えば、各種の操作ボタン、操作キーまたはタッチパネルである。操作部11は、プロジェクター1の筐体に設けられている。操作部11は、ユーザーの入力操作を受け取る。 The operation unit 11 is, for example, various operation buttons, operation keys, or a touch panel. The operation unit 11 is provided on the housing of the projector 1 . The operation unit 11 receives a user's input operation.

受光部12は、不図示のリモートコントローラーへの入力操作に基づく赤外線信号をリモートコントローラーから受光する。リモートコントローラーは、入力操作を受け取る各種の操作ボタン、操作キーまたはタッチパネルを備える。 The light receiving unit 12 receives an infrared signal from a remote controller (not shown) based on an input operation to the remote controller. The remote controller includes various operation buttons, operation keys, or a touch panel for receiving input operations.

第2通信部13aは、指示体2の第1通信部22とBluetoothで無線通信を行う。無線通信の通信方式は、上述の通り、Bluetoothに限らず、例えば、赤外線通信またはWi-Fiでもよい。 The second communication section 13a performs wireless communication with the first communication section 22 of the indicator 2 by Bluetooth. As described above, the wireless communication method is not limited to Bluetooth, and may be infrared communication or Wi-Fi, for example.

画像データ受信部13bは、PC3と、例えば有線LAN(Local Area Network)で接続される。画像データ受信部13bとPC3との接続は、有線LANに限らず、適宜変更可能である。例えば、画像データ受信部13bは、無線LAN、USB(Universal Serial Bus)ケーブル、HDMI(High Definition Multimedia Interface)ケーブルまたはVGA(Video Graphics Array)ケーブルを介してPC3と接続されてもよい。USBは登録商標である。HDMIは登録商標である。 The image data receiver 13b is connected to the PC 3, for example, via a wired LAN (Local Area Network). The connection between the image data receiving unit 13b and the PC 3 is not limited to wired LAN, and can be changed as appropriate. For example, the image data receiver 13b may be connected to the PC 3 via a wireless LAN, USB (Universal Serial Bus) cable, HDMI (High Definition Multimedia Interface) cable, or VGA (Video Graphics Array) cable. USB is a registered trademark. HDMI is a registered trademark.

投射部14は、投射面4に画像を投射することによって投射面4に画像を表示する。例えば、投射部14は、第1領域R1に第1画像G1を表示し、かつ、第2領域R2に第2画像G2を表示する。投射部14は、表示部の一例である。投射部14は、画像処理部141と、フレームメモリー142と、ライトバルブ駆動部143と、第2光源144と、赤色用液晶ライトバルブ145Rと、緑色用液晶ライトバルブ145Gと、青色用液晶ライトバルブ145Bと、投射光学系146と、を含む。以下、赤色用液晶ライトバルブ145Rと、緑色用液晶ライトバルブ145Gと、青色用液晶ライトバルブ145Bとを相互に区別する必要がない場合、これらを「液晶ライトバルブ145」と称する。 The projection unit 14 displays an image on the projection plane 4 by projecting the image onto the projection plane 4 . For example, the projection unit 14 displays the first image G1 in the first region R1 and displays the second image G2 in the second region R2. The projection unit 14 is an example of a display unit. The projection unit 14 includes an image processing unit 141, a frame memory 142, a light valve driving unit 143, a second light source 144, a red liquid crystal light valve 145R, a green liquid crystal light valve 145G, and a blue liquid crystal light valve. 145B and a projection optical system 146. Hereinafter, the red liquid crystal light valve 145R, the green liquid crystal light valve 145G, and the blue liquid crystal light valve 145B are referred to as "liquid crystal light valves 145" when there is no need to distinguish them from each other.

画像処理部141は、単数または複数のイメージプロセッサー等の回路によって構成される。画像処理部141は、処理部17から画像データを受け取る。例えば、画像処理部141は、処理部17から2つの画像データを受け取る。 The image processing unit 141 is configured by circuits such as one or more image processors. The image processing unit 141 receives image data from the processing unit 17 . For example, the image processor 141 receives two pieces of image data from the processor 17 .

画像処理部141は、画像データをフレームメモリー142に展開する。
画像処理部141は、処理部17から2つの画像データを受け取ると、2つの画像データを相互に重ならないようにフレームメモリー142に展開することによって、投射領域Rに投射される画像を示す画像データを生成する。
例えば、画像処理部141は、処理部17から第1画像データと第2画像データとを受け取ると、フレームメモリー142を用いて、画像Gを示す画像データを生成する。
フレームメモリー142は、例えば、RAM(Random Access Memory)等の記憶装置によって構成される。画像処理部141は、フレームメモリー142に展開された画像データに画像処理を施すことによって画像信号を生成する。
The image processing unit 141 develops the image data in the frame memory 142 .
When the image processing unit 141 receives the two image data from the processing unit 17, the image processing unit 141 develops the two image data in the frame memory 142 so as not to overlap each other, thereby producing image data representing an image to be projected onto the projection area R. to generate
For example, when the image processing unit 141 receives the first image data and the second image data from the processing unit 17, the image processing unit 141 uses the frame memory 142 to generate image data representing the image G. FIG.
The frame memory 142 is configured by a storage device such as a RAM (Random Access Memory), for example. The image processing unit 141 generates an image signal by performing image processing on the image data developed in the frame memory 142 .

画像処理部141が実行する画像処理は、例えば、投射部14が投射する画像の台形歪みを補正する幾何補正処理と、PC3から提供される画像データが示す画像にOSD(On Screen Display)画像を重畳するOSD処理を実行する。OSD画像の一例として、図1に示す更新ボタン6が挙げられる。 The image processing executed by the image processing unit 141 includes, for example, a geometric correction process for correcting trapezoidal distortion of the image projected by the projection unit 14, and an OSD (On Screen Display) image on the image indicated by the image data provided from the PC 3. Perform superimposed OSD processing. An example of the OSD image is the update button 6 shown in FIG.

ライトバルブ駆動部143は、例えば、ドライバー等の回路で構成される。ライトバルブ駆動部143は、画像処理部141から提供される画像信号に基づいて液晶ライトバルブ145を駆動する。 The light valve drive unit 143 is configured by a circuit such as a driver, for example. The light valve driving section 143 drives the liquid crystal light valve 145 based on the image signal provided from the image processing section 141 .

第2光源144は、例えば、LEDである。第2光源144は、LEDに限らず、例えば、キセノンランプ、超高圧水銀ランプ、またはレーザー光源でもよい。第2光源144から出射される光は、不図示のインテグレーター光学系によって輝度分布のばらつきが低減され、その後、不図示の色分離光学系によって光の3原色である赤色、緑色、青色の色光成分に分離される。赤色の色光成分は赤色用液晶ライトバルブ145Rに入射する。緑色の色光成分は緑色用液晶ライトバルブ145Gに入射する。青色の色光成分は青色用液晶ライトバルブ145Bに入射する。 The second light source 144 is, for example, an LED. The second light source 144 is not limited to an LED, and may be, for example, a xenon lamp, an ultra-high pressure mercury lamp, or a laser light source. The light emitted from the second light source 144 has its brightness distribution reduced by an integrator optical system (not shown), and is then passed through a color separation optical system (not shown). separated into The red color light component enters the red liquid crystal light valve 145R. The green light component enters the green liquid crystal light valve 145G. The blue color light component enters the blue liquid crystal light valve 145B.

液晶ライトバルブ145は、一対の透明基板間に液晶が存在する液晶パネル等によって構成される。液晶ライトバルブ145は、マトリクス状に位置する複数の画素145pを含む矩形の画素領域145aを有する。液晶ライトバルブ145では、液晶に対して画素145pごとに駆動電圧が印加される。ライトバルブ駆動部143が、画像信号に基づく駆動電圧を各画素145pに印加すると、各画素145pは、駆動電圧に基づく光透過率に設定される。第2光源144から出射される光は、画素領域145aを通ることで変調され画像信号に基づく画像が色光ごとに形成される。液晶ライトバルブ145は、光変調装置の一例である。 The liquid crystal light valve 145 is composed of a liquid crystal panel or the like in which liquid crystal is present between a pair of transparent substrates. The liquid crystal light valve 145 has a rectangular pixel region 145a including a plurality of pixels 145p arranged in a matrix. In the liquid crystal light valve 145, a driving voltage is applied to the liquid crystal for each pixel 145p. When the light valve drive unit 143 applies a drive voltage based on the image signal to each pixel 145p, each pixel 145p is set to have a light transmittance based on the drive voltage. Light emitted from the second light source 144 is modulated by passing through the pixel region 145a, and an image based on the image signal is formed for each color light. The liquid crystal light valve 145 is an example of an optical modulator.

各色の画像は、図示しない色合成光学系によって画素145pごとに合成され、カラー画像が生成される。カラー画像は、投射光学系146を介して投射される。 Images of respective colors are synthesized for each pixel 145p by a color synthesizing optical system (not shown) to generate a color image. A color image is projected through projection optics 146 .

カメラ15は、投射領域Rを撮像することによって撮像データを生成する。カメラ15は、レンズ等の受光光学系151と、受光光学系151にて集光される光を電気信号に変換する撮像素子152と、を含む。撮像素子152は、例えば、赤外領域および可視光領域の光を受光するCCD(Charge Coupled Device)イメージセンサーである。撮像素子152は、CCDイメージセンサーに限らず、例えば、赤外領域および可視光領域の光を受光するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーでもよい。 The camera 15 generates imaging data by imaging the projection area R. FIG. The camera 15 includes a light-receiving optical system 151 such as a lens, and an imaging device 152 that converts light collected by the light-receiving optical system 151 into an electrical signal. The imaging element 152 is, for example, a CCD (Charge Coupled Device) image sensor that receives light in the infrared region and the visible light region. The imaging element 152 is not limited to a CCD image sensor, and may be, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor that receives light in the infrared region and visible light region.

カメラ15は、撮像素子152に入射する光の一部を遮るフィルターを備えてもよい。例えば、カメラ15は、撮像素子152に赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子152の前に配置させる。 The camera 15 may include a filter that blocks part of the light that enters the imaging device 152 . For example, when the imaging device 152 receives infrared light, the camera 15 arranges a filter that mainly transmits light in the infrared region in front of the imaging device 152 .

カメラ15は、プロジェクター1とは別体として設けられてもよい。この場合、カメラ15とプロジェクター1は、データの送受信ができるように有線または無線のインターフェイスにより相互に接続されてもよい。 The camera 15 may be provided separately from the projector 1 . In this case, the camera 15 and the projector 1 may be connected to each other through a wired or wireless interface so that data can be transmitted and received.

カメラ15が可視光による撮像を行うと、例えば、投射部14が投射面4に投射した画像が撮像される。以下、可視光によるカメラ15の撮像によって生成される撮像データを「可視光撮像データ」と称する。可視光撮像データは、例えば、後述するキャリブレーションにおいて使用される。 When the camera 15 captures an image using visible light, for example, an image projected onto the projection surface 4 by the projection unit 14 is captured. The imaging data generated by imaging with the camera 15 using visible light is hereinafter referred to as "visible light imaging data". Visible light imaging data is used, for example, in calibration, which will be described later.

カメラ15が赤外光による撮像を行うと、例えば、指示体2が出射した赤外光を示す撮像データが生成される。以下、赤外光によるカメラ15の撮像によって生成される撮像データを「赤外光撮像データ」と称する。赤外光撮像データは、例えば、投射面4における指示体2による操作位置を検出するために使用される。 When the camera 15 captures an image using infrared light, captured image data representing the infrared light emitted by the pointer 2 is generated, for example. In the following, the imaging data generated by the imaging by the camera 15 using infrared light will be referred to as "infrared light imaging data". The infrared light imaging data is used, for example, to detect the operation position of the pointer 2 on the projection plane 4 .

記憶部16は、処理部17が読み取り可能な記録媒体である。記憶部16は、例えば、不揮発性メモリー161と揮発性メモリー162とを含む。不揮発性メモリー161としては、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)およびEEPROM(Electrically Erasable Programmable Read Only Memory)が挙げられる。揮発性メモリー162としては、例えば、RAMが挙げられる。
揮発性メモリー162は、第1バッファー162aと、第2バッファー162bと、第3バッファー162cと、第4バッファー162dと、を含む。
The storage unit 16 is a recording medium readable by the processing unit 17 . Storage unit 16 includes, for example, nonvolatile memory 161 and volatile memory 162 . Examples of the nonvolatile memory 161 include ROM (Read Only Memory), EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Read Only Memory). Volatile memory 162 includes, for example, RAM.
Volatile memory 162 includes a first buffer 162a, a second buffer 162b, a third buffer 162c, and a fourth buffer 162d.

第1バッファー162aは、第1領域R1に表示される画像を示す画像データを記憶する。第1バッファー162aは、例えば、第1画像データを記憶する。 The first buffer 162a stores image data representing an image displayed in the first region R1. The first buffer 162a stores, for example, first image data.

第2バッファー162bは、第2領域R2に表示される画像を示す画像データを記憶する。第2バッファー162bは、例えば、第2画像データを記憶する。 The second buffer 162b stores image data representing an image displayed in the second region R2. The second buffer 162b stores, for example, second image data.

第3バッファー162cは、第2領域R2に表示される画像に書込み画像が重畳されている重畳画像を示す画像データを記憶する。第3バッファー162cは、例えば、第3画像G3を示す第3画像データを記憶する。 The third buffer 162c stores image data representing a superimposed image in which the written image is superimposed on the image displayed in the second region R2. The third buffer 162c stores, for example, third image data representing the third image G3.

第4バッファー162dは、第1領域R1に表示される画像に書込み画像が重畳されている重畳画像を示す画像データを記憶する。 The fourth buffer 162d stores image data representing a superimposed image in which the written image is superimposed on the image displayed in the first region R1.

処理部17は、例えば、単数または複数のプロセッサーによって構成される。一例を挙げると、処理部17は、単数または複数のCPUによって構成される。処理部17の機能の一部または全部は、DSP、ASIC、PLDまたはFPGA等の回路によって構成されてもよい。処理部17は、各種の処理を並列的または逐次的に実行する。 The processing unit 17 is composed of, for example, one or more processors. For example, the processing unit 17 is configured by one or more CPUs. A part or all of the functions of the processing unit 17 may be configured by a circuit such as DSP, ASIC, PLD or FPGA. The processing unit 17 executes various processes in parallel or sequentially.

処理部17は、記憶部16から制御プログラムを読み取り実行することによって、動作制御部171、表示制御部172および判定部173として機能する。 The processing unit 17 functions as an operation control unit 171 , a display control unit 172 and a determination unit 173 by reading and executing a control program from the storage unit 16 .

動作制御部171は、プロジェクター1の種々の動作を制御する。例えば、動作制御部171は、指示体2と第2通信部13aとの通信を確立する。 The operation control section 171 controls various operations of the projector 1 . For example, the operation control section 171 establishes communication between the indicator 2 and the second communication section 13a.

動作制御部171は、さらに、キャリブレーションを実行する。キャリブレーションとは、フレームメモリー142上の座標と、撮像データ上の座標とを、対応づける処理である。フレームメモリー142上の座標は、投射面4に投射される画像上の位置に対応する。フレームメモリー142上の位置と、撮像データ上の位置とが対応づけられることによって、例えば、投射面4に投射される画像において、投射面4における指示体2による操作位置に対応する部分を特定することができる。 The operation control unit 171 also performs calibration. Calibration is a process of associating the coordinates on the frame memory 142 with the coordinates on the imaging data. Coordinates on the frame memory 142 correspond to positions on the image projected onto the projection plane 4 . By associating the position on the frame memory 142 with the position on the imaging data, for example, in the image projected on the projection surface 4, the portion corresponding to the operation position of the pointer 2 on the projection surface 4 is specified. be able to.

以下、キャリブレーションについて説明する。
動作制御部171は、キャリブレーション画像データを記憶部16から読み出す。なお、動作制御部171は、キャリブレーション画像データを制御プログラムに従って生成してもよい。動作制御部171は、画像処理部141にキャリブレーション画像データを提供する。
画像処理部141は、キャリブレーション画像データをフレームメモリー142上に展開する。画像処理部141は、キャリブレーション画像データに対して幾何補正処理等を行って画像信号を生成する。画像処理部141が、画像信号をライトバルブ駆動部143に提供すると、予め設定された形状のマークが間隔をあけて配置されているキャリブレーション画像が、投射面4へ投射させる。
The calibration will be described below.
The operation control section 171 reads the calibration image data from the storage section 16 . Note that the operation control unit 171 may generate calibration image data according to a control program. The operation control section 171 provides calibration image data to the image processing section 141 .
The image processing unit 141 develops the calibration image data on the frame memory 142 . The image processing unit 141 performs geometric correction processing and the like on the calibration image data to generate an image signal. When the image processing unit 141 provides an image signal to the light valve driving unit 143 , a calibration image in which marks of a preset shape are arranged at intervals is projected onto the projection surface 4 .

続いて、動作制御部171は、キャリブレーション画像をカメラ15に可視光で撮像させる。カメラ15は、キャリブレーション画像を可視光で撮像することによって可視光撮像データを生成する。続いて、動作制御部171は、カメラ15から可視光撮像データを取得する。動作制御部171は、可視光撮像データに表されたマークを検出する。動作制御部171は、各マークの重心位置を、撮像データにおける各マークの座標として特定する。 Subsequently, the operation control unit 171 causes the camera 15 to capture a calibration image with visible light. The camera 15 generates visible light image data by capturing a calibration image with visible light. Subsequently, the operation control unit 171 acquires visible light imaging data from the camera 15 . The operation control unit 171 detects the mark represented by the visible light imaging data. The motion control unit 171 identifies the center-of-gravity position of each mark as the coordinates of each mark in the imaging data.

続いて、動作制御部171は、可視光撮像データから検出されたマークの座標と、フレームメモリー142上のマークの座標との対応づけを行う。動作制御部171は、この対応づけにより、撮像データ上の座標とフレームメモリー142上の座標とを対応づけるキャリブレーションデータを生成する。動作制御部171は、キャリブレーションデータを記憶部16に記憶する。
ここまでが、キャリブレーションの説明である。
Subsequently, the operation control unit 171 associates the coordinates of the mark detected from the visible light imaging data with the coordinates of the mark on the frame memory 142 . The operation control unit 171 generates calibration data that associates the coordinates on the imaging data with the coordinates on the frame memory 142 by this association. The operation control section 171 stores the calibration data in the storage section 16 .
The above is the description of the calibration.

動作制御部171は、キャリブレーションを完了すると、一定の時間間隔でカメラ15に赤外光での撮像を実行させることによって赤外光撮像データを生成させる。また、動作制御部171は、カメラ15の撮像タイミングに同期している同期信号を第2通信部13aから指示体2に送信する。 After completing the calibration, the operation control unit 171 causes the camera 15 to perform imaging with infrared light at regular time intervals, thereby generating infrared light image data. In addition, the operation control section 171 transmits a synchronization signal synchronized with the imaging timing of the camera 15 from the second communication section 13a to the indicator 2 .

表示制御部172は、投射部14を制御する。表示制御部172は、投射部14を制御することによって、投射部14が投射領域Rに投射する画像を制御する。 The display control section 172 controls the projection section 14 . The display control unit 172 controls the image projected onto the projection region R by the projection unit 14 by controlling the projection unit 14 .

判定部173は、第1領域R1に表示される画像と第2領域R2に表示される画像とを変更する条件が満たされているか否かを判定する。以下、当該条件を「変更条件」と称する。
変更条件は、プロジェクター1が後続画像データを受けるという第1条件である。なお、変更条件は、第1条件に限らず適宜変更可能である。
判定部173の判定結果は、表示制御部172によって利用される。
例えば、表示制御部172は、第2領域R2に第3画像G3が表示されている状況において判定部173による判定の結果が肯定である場合、第1領域R1に表示される画像を、第1画像G1から第3画像G3に変更し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する。
The determination unit 173 determines whether or not a condition for changing the image displayed in the first region R1 and the image displayed in the second region R2 is satisfied. Hereinafter, such conditions are referred to as "change conditions".
The change condition is the first condition that the projector 1 receives subsequent image data. Note that the change condition is not limited to the first condition and can be changed as appropriate.
The determination result of the determination unit 173 is used by the display control unit 172 .
For example, when the determination result of the determination unit 173 is affirmative in a situation where the third image G3 is displayed in the second region R2, the display control unit 172 displays the image displayed in the first region R1 as the first image. The image G1 is changed to the third image G3, and the image displayed in the second region R2 is changed from the third image G3 to the fourth image G4.

A4.指示体2の位置を検出する動作例
図7は、指示体2の動作シーケンスを説明するための図である。
図7に示すシーケンスでは、第1サイクル~第3サイクルの各サイクルは、第1フェーズPH1~第4フェーズPH4までの4つのフェーズを備える。第1フェーズPH1~第4フェーズPH4は、順に繰り返される。
A4. Operation Example for Detecting Position of Indicator 2 FIG. 7 is a diagram for explaining an operation sequence of the indicator 2 .
In the sequence shown in FIG. 7, each cycle from the first cycle to the third cycle comprises four phases from the first phase PH1 to the fourth phase PH4. The first phase PH1 to fourth phase PH4 are repeated in order.

第1フェーズPH1は、同期フェーズである。
指示体制御部26は、第1通信部22を介してプロジェクター1から同期信号を受けることによって、第1フェーズPH1の開始タイミングを認識する。第1フェーズPH1~第4フェーズPH4の各時間は、相互に同一に設定されている。このため、指示体制御部26は、第1フェーズPH1の開始タイミングを認識することによって、第2フェーズPH2~第4フェーズPH4の各々の開始タイミングも認識する。
The first phase PH1 is the synchronization phase.
The indicator control unit 26 recognizes the start timing of the first phase PH1 by receiving the synchronization signal from the projector 1 via the first communication unit 22 . Each time of the first phase PH1 to the fourth phase PH4 is set to be the same. Therefore, by recognizing the start timing of the first phase PH1, the pointer control unit 26 also recognizes the start timings of the second phase PH2 to the fourth phase PH4.

第2フェーズPH2と第4フェーズPH4は、位置検出のフェーズである。
指示体制御部26は、第2フェーズPH2と第4フェーズPH4との各々で第1光源23を発光させる。プロジェクター1は、指示体2の発光タイミングに合わせて、カメラ15により撮像を実行する。カメラ15が撮像により生成する撮像データには、指示体2の発光が輝点として示される。
The second phase PH2 and the fourth phase PH4 are position detection phases.
The pointer control unit 26 causes the first light source 23 to emit light in each of the second phase PH2 and the fourth phase PH4. The projector 1 performs imaging by the camera 15 in accordance with the light emission timing of the pointer 2 . The imaging data generated by imaging by the camera 15 shows the light emission of the pointer 2 as a bright spot.

第3フェーズPH3は、接触判定のフェーズである。
スイッチ24は、先端2aへの圧力に応じてオン状態になる。第3フェーズPH3では、スイッチ24がオン状態である場合、第1光源23が発光する。第3フェーズPH3において第1光源23が発光すると、第3フェーズPH3におけるカメラ15の撮像データには、指示体2の発光が輝点として示される。
The third phase PH3 is a contact determination phase.
The switch 24 is turned on in response to pressure on the tip 2a. In the third phase PH3, the first light source 23 emits light when the switch 24 is on. When the first light source 23 emits light in the third phase PH3, the image data of the camera 15 in the third phase PH3 shows the light emission of the pointer 2 as a bright spot.

プロジェクター1は、第2フェーズPH2および第4フェーズPH4の各々で生成される撮像データと、キャリブレーションデータとを用いることによって、第2フェーズPH2および第4フェーズPH4の各々における指示体2の位置を示す位置座標を特定する。
プロジェクター1は、第2フェーズPH2および第4フェーズPH4の各々で特定される位置座標のうち、第3フェーズPH3で生成される撮像データとキャリブレーションデータを用いることによって特定される位置座標に近い位置座標を、指示体2が投射面4に接触した位置、すなわち、操作位置として判定する。
The projector 1 determines the position of the indicator 2 in each of the second phase PH2 and the fourth phase PH4 by using the imaging data generated in each of the second phase PH2 and the fourth phase PH4 and the calibration data. Identify the position coordinates to show.
The projector 1 is located at a position close to the position coordinates specified by using the imaging data and the calibration data generated in the third phase PH3 among the position coordinates specified in each of the second phase PH2 and the fourth phase PH4. The coordinates are determined as the position where the pointer 2 contacts the projection surface 4, that is, the operation position.

A5.書込みの動作例
図8は、書込み動作の一例を説明するためのフローチャートである。図8に示す動作は繰り返し実行される。図8を用いる説明では、指示体2とプロジェクター1は、図7に示すシーケンスに従って同期している状態で動作しているとする。キャリブレーションが実行済みであり、キャリブレーションデータが記憶部16に記憶されているとする。
A5. Example of Write Operation FIG. 8 is a flowchart for explaining an example of a write operation. The operation shown in FIG. 8 is repeatedly executed. In the explanation using FIG. 8, it is assumed that the pointer 2 and the projector 1 operate in a synchronized state according to the sequence shown in FIG. Assume that calibration has already been performed and calibration data is stored in the storage unit 16 .

ステップS101においてカメラ15は、第2フェーズPH2、第3フェーズPH3および第4フェーズPH4の各々で、赤外光の撮像を行うことによって撮像データを生成する。 In step S101, the camera 15 generates imaging data by imaging infrared light in each of the second phase PH2, the third phase PH3, and the fourth phase PH4.

ステップS102において表示制御部172は、撮像データを解析することによって、撮像データが示す画像における指示体2の位置を検出する。表示制御部172は、キャリブレーションデータを用いて、撮像データにおける指示体2の位置を、フレームメモリー142上の位置を示す位置座標に変換する。 In step S102, the display control unit 172 detects the position of the indicator 2 in the image indicated by the imaging data by analyzing the imaging data. The display control unit 172 converts the position of the indicator 2 in the imaging data into position coordinates indicating the position on the frame memory 142 using the calibration data.

ステップS103において表示制御部172は、撮像データを解析することによって、指示体2の発光パターンを検出する。 In step S103, the display control unit 172 detects the light emission pattern of the pointer 2 by analyzing the imaging data.

ステップS104において表示制御部172は、指示体2の発光パターンに基づいて、指示体2が投射面4へ接触したか否かを判定する。 In step S<b>104 , the display control unit 172 determines whether or not the indicator 2 has come into contact with the projection surface 4 based on the light emission pattern of the indicator 2 .

表示制御部172は、指示体2の発光パターンが、指示体2と投射面4との接触を示す発光パターンである場合、ステップS105において表示制御部172は、第2フェーズPH2と第4フェーズPH4との各々で特定される位置座標のうち、第3フェーズPH3で特定される位置座標に近い位置座標を、操作位置として検出する。そして、表示制御部172は、例えば図2に示すように、操作位置の軌跡を示す線である書込み画像5を第2画像G2に書き込む。
表示制御部172は、指示体2の発光パターンが、指示体2が投射面4と非接触であることを示す発光パターンである場合、図8に示す動作を終了する。
When the light emission pattern of the pointer 2 is a light emission pattern indicating contact between the pointer 2 and the projection surface 4, the display control unit 172 controls the second phase PH2 and the fourth phase PH4 in step S105. , and the position coordinates that are close to the position coordinates specified in the third phase PH3 are detected as the operation position. Then, the display control unit 172 writes a writing image 5, which is a line indicating the trajectory of the operation position, in the second image G2, as shown in FIG. 2, for example.
When the light emission pattern of the indicator 2 is a light emission pattern indicating that the indicator 2 is out of contact with the projection surface 4, the display control unit 172 ends the operation shown in FIG.

A6.画像切替えの動作例
図9は、プロジェクター1による画像切替え動作の一例を説明するためのフローチャートである。図9に示す動作は繰り返し実行される。図9を用いる説明では、プロジェクター1は、2つの画像データを用いて生成される画像、例えば図1に示す画像Gを、投射面4に表示しているとする。
A6. Example of Image Switching Operation FIG. 9 is a flowchart for explaining an example of an image switching operation by the projector 1 . The operation shown in FIG. 9 is repeatedly executed. In the explanation using FIG. 9, it is assumed that the projector 1 displays on the projection surface 4 an image generated using two pieces of image data, for example, the image G shown in FIG.

ステップS201において表示制御部172は、撮像データを解析することによって指示体2による更新ボタン6への操作を検出すると、後続画像データを要求する要求指示をユーザーから受けたと判定する。
表示制御部172は、撮像データを解析することによって指示体2による更新ボタン6への操作を検出できないと、要求指示をユーザーから受けていないと判定する。要求指示をユーザーから受けていない場合、図9に示す動作は終了する。
In step S201, when the display control unit 172 detects that the update button 6 has been operated by the pointer 2 by analyzing the imaging data, it determines that a request instruction requesting subsequent image data has been received from the user.
If the display control unit 172 cannot detect the operation of the update button 6 by the pointer 2 by analyzing the imaging data, it determines that the request instruction has not been received from the user. If no request instruction has been received from the user, the operation shown in FIG. 9 ends.

表示制御部172は、ユーザーから要求指示を受けると、ステップS202においてPC3に後続画像データを要求する。PC3は、後続画像データの要求に応じて、後続画像データをプロジェクター1に送信する。 Upon receiving the request instruction from the user, the display control unit 172 requests the subsequent image data from the PC 3 in step S202. The PC 3 transmits subsequent image data to the projector 1 in response to the subsequent image data request.

ステップS203において判定部173は、プロジェクター1が後続画像データを受けるか否かを判定する。ここで、本実施形態では、プロジェクター1が後続画像データを受けるという事柄は、第1条件、さらに言えば変更条件として用いられている。このため、ステップS203において判定部173は、実質的に、変更条件が満たされるか否かを判定する。
なお、ステップS203では、プロジェクター1が、ユーザーから要求指示を受けてから所定時間内に後続画像データを受ける場合、判定部173は、プロジェクター1が後続画像データを受けると判定する。所定時間は、例えば5秒間である。所定時間は5秒間に限らず5秒間よりも長くてもよいし短くてもよい。
また、ステップS203では、プロジェクター1が、ユーザーから要求指示を受けてから所定時間内に後続画像データを受けない場合、判定部173は、プロジェクター1が後続画像データを受けないと判定する。
In step S203, the determination unit 173 determines whether or not the projector 1 receives subsequent image data. Here, in the present embodiment, the fact that the projector 1 receives the subsequent image data is used as the first condition, more specifically, as the change condition. Therefore, in step S203, the determination unit 173 substantially determines whether or not the change condition is satisfied.
Note that in step S203, when the projector 1 receives the subsequent image data within a predetermined time after receiving the request instruction from the user, the determination unit 173 determines that the projector 1 receives the subsequent image data. The predetermined time is, for example, 5 seconds. The predetermined time is not limited to 5 seconds and may be longer or shorter than 5 seconds.
Further, in step S203, when the projector 1 does not receive the subsequent image data within a predetermined time after receiving the request instruction from the user, the determination unit 173 determines that the projector 1 does not receive the subsequent image data.

判定部173が、プロジェクター1が後続画像データを受けたと判定する場合、すなわち、変更条件が満たされると判定する場合、ステップS204において、表示制御部172は、第1領域R1と第2領域R2との各々において画像を切り換える。 When the determination unit 173 determines that the projector 1 has received the subsequent image data, that is, when it determines that the change condition is satisfied, in step S204, the display control unit 172 sets the first region R1 and the second region R2. , the image is switched.

ステップS204では、例えば、第1領域R1に第1画像G1が表示され第2領域R2に第3画像G3が表示されている状況において、判定部173による判定の結果が肯定である場合、表示制御部172は、第1領域R1に表示される画像を、第1画像G1から第3画像G3に変更し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する。 In step S204, for example, in a situation where the first image G1 is displayed in the first region R1 and the third image G3 is displayed in the second region R2, if the result of determination by the determination unit 173 is affirmative, display control is performed. The unit 172 changes the image displayed in the first region R1 from the first image G1 to the third image G3, and changes the image displayed in the second region R2 from the third image G3 to the fourth image G4. change to

例えば、表示制御部172は、まず、第3画像G3をキャプチャーすることによって、第3画像データを生成する。続いて、表示制御部172は、第1バッファー162aに記憶される画像データを、第1画像データから第3画像データに変更する。
なお、第3バッファー162cに第3画像データが記憶されている場合、表示制御部172は、第3画像G3をキャプチャーすることなく、第1バッファー162aに記憶される画像データを、第1画像データから、第3バッファー162cに記憶されている第3画像データに変更してもよい。
続いて、表示制御部172は、第2バッファー162bに記憶されている画像データを、第2画像データから後続画像データに変更する。続いて、表示制御部172は、第1バッファー162aから第3画像データを読み出し、当該第3画像データを画像処理部141に出力する。続いて、表示制御部172は、第2バッファー162bから後続画像データを読み出し、当該後続画像データを画像処理部141に出力する。
画像処理部141は、第3画像データと後続画像データとを受信すると、図3に示すように第1領域R1に第3画像G3が位置し第2領域R2に第4画像G4が位置する画像を示す画像信号を、フレームメモリー142を用いて生成する。画像処理部141が、当該画像信号をライトバルブ駆動部143に出力することによって、投射部14は、第1領域R1に第3画像G3が位置し第2領域R2に第4画像G4が位置する画像を、投射面4に投射する。
For example, the display control unit 172 first generates the third image data by capturing the third image G3. Subsequently, the display control unit 172 changes the image data stored in the first buffer 162a from the first image data to the third image data.
Note that when the third image data is stored in the third buffer 162c, the display control unit 172 stores the image data stored in the first buffer 162a as the first image data without capturing the third image G3. , to the third image data stored in the third buffer 162c.
Subsequently, the display control unit 172 changes the image data stored in the second buffer 162b from the second image data to the succeeding image data. Subsequently, the display control section 172 reads the third image data from the first buffer 162 a and outputs the third image data to the image processing section 141 . Subsequently, the display control unit 172 reads subsequent image data from the second buffer 162 b and outputs the subsequent image data to the image processing unit 141 .
When the image processing unit 141 receives the third image data and the subsequent image data, as shown in FIG. 3, the image processing unit 141 generates an image in which the third image G3 is positioned in the first region R1 and the fourth image G4 is positioned in the second region R2. is generated using the frame memory 142 . The image processing unit 141 outputs the image signal to the light valve driving unit 143, so that the projection unit 14 positions the third image G3 in the first region R1 and the fourth image G4 in the second region R2. An image is projected onto the projection surface 4 .

また、ステップS204では、例えば、第1領域R1に第1画像G1が表示され第2領域R2に第2画像G2が表示されている状況において、判定部173による判定の結果が肯定である場合、表示制御部172は、第1領域R1に表示される画像を、第1画像G1から第2画像G2に変更し、かつ、第2領域R2に表示される画像を、第2画像G2から第4画像G4に変更する。 Further, in step S204, for example, in a situation where the first image G1 is displayed in the first region R1 and the second image G2 is displayed in the second region R2, if the determination result of the determination unit 173 is affirmative, The display control unit 172 changes the image displayed in the first region R1 from the first image G1 to the second image G2, and changes the image displayed in the second region R2 from the second image G2 to the fourth image G2. Change to image G4.

例えば、表示制御部172は、まず、第2画像G2をキャプチャーすることによって、第2画像データを生成する。続いて、表示制御部172は、第1バッファー162aに記憶される画像データを、第1画像データから第2画像データに変更する。
なお、表示制御部172は、第2画像G2をキャプチャーすることなく、第1バッファー162aに記憶される画像データを、第1画像データから、第2バッファー162bに記憶されている第2画像データに変更してもよい。
続いて、表示制御部172は、第2バッファーに記憶されている画像データを、第2画像データから後続画像データに変更する。続いて、表示制御部172は、第1バッファー162aから第2画像データを読み出し、当該第2画像データを画像処理部141に出力する。続いて、表示制御部172は、第2バッファー162bから後続画像データを読み出し、当該後続画像データを画像処理部141に出力する。
画像処理部141は、第2画像データと後続画像データとを受信すると、図4に示すように第1領域R1に第2画像G2が位置し第2領域R2に第4画像G4が位置する画像を示す画像信号を、フレームメモリー142を用いて生成する。画像処理部141が、当該画像信号をライトバルブ駆動部143に出力することによって、投射部14は、第1領域R1に第2画像G2が位置し第2領域R2に第4画像G4が位置する画像を、投射面4に投射する。
For example, the display control unit 172 first generates the second image data by capturing the second image G2. Subsequently, the display control unit 172 changes the image data stored in the first buffer 162a from the first image data to the second image data.
Note that the display control unit 172 changes the image data stored in the first buffer 162a from the first image data to the second image data stored in the second buffer 162b without capturing the second image G2. You can change it.
Subsequently, the display control unit 172 changes the image data stored in the second buffer from the second image data to the succeeding image data. Subsequently, the display control section 172 reads the second image data from the first buffer 162 a and outputs the second image data to the image processing section 141 . Subsequently, the display control unit 172 reads subsequent image data from the second buffer 162 b and outputs the subsequent image data to the image processing unit 141 .
When the image processing unit 141 receives the second image data and the subsequent image data, the image processing unit 141 generates an image in which the second image G2 is positioned in the first region R1 and the fourth image G4 is positioned in the second region R2, as shown in FIG. is generated using the frame memory 142 . The image processing unit 141 outputs the image signal to the light valve driving unit 143, so that the projection unit 14 positions the second image G2 in the first region R1 and the fourth image G4 in the second region R2. An image is projected onto the projection surface 4 .

ステップS203において判定部173が、プロジェクター1が後続画像データを受けていないと判定する場合、すなわち、変更条件が満たされないと判定する場合、図9の動作が終了する。 If the determination unit 173 determines in step S203 that the projector 1 has not received subsequent image data, that is, if it determines that the change condition is not satisfied, the operation of FIG. 9 ends.

A7.第1実施形態についてのまとめ
上述の本実施形態に係る表示装置の動作方法および表示装置は以下の態様を含む。
A7. Summary of First Embodiment The method of operating the display device and the display device according to the present embodiment described above include the following aspects.

投射部14は、第1領域R1に第1画像G1を表示し、かつ、第2領域R2に第2画像G2を表示する。表示制御部172は、投射部14を制御することによって、第2画像G2に対する書込み操作に基づく書込み画像5を第2画像G2に重畳することによって生成される第3画像G3を、第2画像G2に代えて第2領域R2に表示させる。判定部173は、変更条件が満たされているか否かを判定する。表示制御部172は、第1領域R1に第1画像G1が表示され、かつ第2領域R2に第3画像G3が表示されている状況において変更条件が満たされる場合、第1領域R1に表示される画像を、第1画像G1から第3画像G3に変更し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する動作を、投射部14に実行させる。 The projection unit 14 displays the first image G1 in the first region R1 and displays the second image G2 in the second region R2. The display control unit 172 controls the projection unit 14 to display the third image G3 generated by superimposing the writing image 5 based on the writing operation on the second image G2 on the second image G2. is displayed in the second region R2 instead of . The determination unit 173 determines whether or not the change condition is satisfied. When the change condition is satisfied in a situation where the first image G1 is displayed in the first region R1 and the third image G3 is displayed in the second region R2, the display control unit 172 causes the image to be displayed in the first region R1. the image displayed in the second region R2 from the first image G1 to the third image G3, and the image displayed in the second region R2 from the third image G3 to the fourth image G4. Let

この態様によれば、第2領域R2に表示される画像が、第3画像G3から第4画像G4に変更されても、第3画像G3は、第1領域R1に表示される。第3画像G3は、書込み画像5を第2画像G2に重畳することによって生成される画像であるため、第1領域R1において実行された書込みの内容を第2領域に表示することが可能になる。
よって、例えば、教師によって書き込まれた重要な情報を、生徒は、確認し続けることができる。
According to this aspect, even if the image displayed in the second region R2 is changed from the third image G3 to the fourth image G4, the third image G3 is displayed in the first region R1. Since the third image G3 is an image generated by superimposing the written image 5 on the second image G2, it is possible to display the contents of the writing executed in the first region R1 in the second region. .
Thus, for example, the student can keep track of important information written by the teacher.

第4画像G4は、第2画像G2を示す第2画像データよりも時間的に後にPC3からプロジェクター1に供給される後続画像データによって示される画像である。このため、第2領域R2に表示される画像のうち、PC3から供給される画像データが示す画像については、PC3から供給される画像データの供給順に従って更新できる。 The fourth image G4 is an image represented by subsequent image data supplied from the PC 3 to the projector 1 after the second image data representing the second image G2. Therefore, among the images displayed in the second region R2, the image indicated by the image data supplied from the PC3 can be updated according to the supply order of the image data supplied from the PC3.

プロジェクター1は、ユーザーから後続画像データを要求する要求指示を受ける場合、後続画像データの供給元であるPC3に後続画像データを要求し、PC3が当該要求に応じて供給する後続画像データを受ける。このため、ユーザーは、必要に応じて要求指示を行うことによって、プロジェクター1に、後続画像データを取得させることが可能になる。 When the projector 1 receives a request instruction requesting subsequent image data from the user, the projector 1 requests the subsequent image data from the PC 3, which is the supply source of the subsequent image data, and receives the subsequent image data supplied by the PC 3 in response to the request. Therefore, the user can cause the projector 1 to acquire subsequent image data by issuing a request instruction as necessary.

変更条件は、後続画像データをプロジェクター1が受けるという第1条件である。このため、表示制御部172は、第2領域R2に第3画像G3が表示されている状況において後続画像データを受けると、第1領域R1に表示される画像を、第1画像G1から第3画像G3に変更し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する、という動作を、投射部14に実行させることができる。 The change condition is the first condition that the projector 1 receives subsequent image data. Therefore, when the display control unit 172 receives subsequent image data in a situation where the third image G3 is displayed in the second region R2, the display control unit 172 changes the image displayed in the first region R1 from the first image G1 to the third image G3. It is possible to cause the projection unit 14 to perform an operation of changing to the image G3 and changing the image displayed in the second region R2 from the third image G3 to the fourth image G4.

B.変形例
以上に例示した実施形態の変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲において適宜に併合してもよい。
B. Modifications Modifications of the above-exemplified embodiments are exemplified below. Two or more aspects arbitrarily selected from the following examples may be combined as appropriate within a mutually consistent range.

B1.第1変形例
第1実施形態において、第2画像データと後続画像データとが相互に異なっているか否かが不明な場合、変更条件として、第2画像データと後続画像データとが相互に異なるという第2条件が用いられてもよい。この場合、判定部173は、第2バッファー162bに記憶されている第2画像データと後続画像データを比較することによって、第2画像データと後続画像データとが相互に異なるか否かを判定する。変更条件が第2条件である場合、表示制御部172は、第2画像G2とは異なる画像を示す後続画像データを受けたと判定部173が判定する場合に、図9に示すステップS204を実行する。
第1変形例によれば、第1領域R1に表示される画像と、第2領域R2に表示される画像とを、PC3から供給される画像データの更新に応じて変更できる。また、プロジェクター1が、PC3から供給される画像データにおける更新の有無を判定可能になる。
B1. First Modification In the first embodiment, if it is unclear whether the second image data and the subsequent image data are different from each other, the change condition is that the second image data and the subsequent image data are different from each other. A second condition may be used. In this case, the determination unit 173 determines whether the second image data and the subsequent image data are different from each other by comparing the second image data and the subsequent image data stored in the second buffer 162b. . When the change condition is the second condition, the display control unit 172 executes step S204 shown in FIG. 9 when the determination unit 173 determines that subsequent image data showing an image different from the second image G2 has been received. .
According to the first modification, the image displayed in the first area R1 and the image displayed in the second area R2 can be changed according to the update of the image data supplied from the PC3. Also, the projector 1 can determine whether or not the image data supplied from the PC 3 has been updated.

B2.第2変形例
第1実施形態において、PC3が、後続画像データを供給する場合に、後続画像データの供給を示す供給信号を送信する場合、変更条件は、供給信号をプロジェクター1が受けるという第3条件でもよい。この場合、判定部173は、プロジェクター1が供給信号を受けたか否かを判定する。変更条件が第3条件である場合、表示制御部172は、プロジェクター1が供給信号を受けたと判定部173が判定する場合に、図9に示すステップS204を実行する。
第2変形例によれば、判定部173の判定を、例えば、第2画像データと後続画像データとが相互に異なるか否かの判定よりも容易にできる。
なお、供給信号の送信元は、PC3に限らず、例えば、PC3を制御する不図示の制御装置でもよい。
B2. Second Modified Example In the first embodiment, when the PC 3 transmits the supply signal indicating the supply of the subsequent image data when the subsequent image data is supplied, the change condition is that the projector 1 receives the supply signal. may be a condition. In this case, the determination unit 173 determines whether or not the projector 1 has received the supply signal. When the change condition is the third condition, the display control unit 172 executes step S204 shown in FIG. 9 when the determination unit 173 determines that the projector 1 has received the supply signal.
According to the second modification, the determination by the determination unit 173 can be made easier than, for example, determining whether or not the second image data and the subsequent image data are different from each other.
The source of the supply signal is not limited to the PC3, and may be, for example, a control device (not shown) that controls the PC3.

B3.第3変形例
第1実施形態において、変更条件は、第4条件が満たされかつ第5条件が満たされるという第6条件でもよい。第4条件は、例えば、上述の第1条件と上述の第2条件と上述の第3条件とのいずれかである。第5条件は、例えば、第1領域R1に表示される画像を維持する維持指示をプロジェクター1がユーザーから受けていないという条件である。
B3. Third Modification In the first embodiment, the change condition may be the sixth condition that the fourth condition is satisfied and the fifth condition is satisfied. The fourth condition is, for example, any one of the above-described first condition, the above-described second condition, and the above-described third condition. The fifth condition is, for example, that the projector 1 has not received from the user a maintenance instruction to maintain the image displayed in the first region R1.

維持指示の一例としては、例えば、図10に示すように、第1領域R1に表示される画像の変更を禁止することによって第1領域R1に表示される画像を維持するためのオブジェクト7が、第1領域R1に位置する状態が挙げられる。オブジェクト7は、例えば磁石を有し、この磁石の磁力によりホワイトボード等の投射面4に位置する。なお、オブジェクト7は、粘着性を有する物質によって、投射面4に装着されてもよい。 As an example of the maintenance instruction, for example, as shown in FIG. 10, the object 7 for maintaining the image displayed in the first region R1 by prohibiting the change of the image displayed in the first region R1 is A state located in the first region R1 can be mentioned. The object 7 has, for example, a magnet, and is positioned on the projection surface 4 such as a whiteboard by the magnetic force of this magnet. Note that the object 7 may be attached to the projection surface 4 with a sticky substance.

オブジェクト7は、例えば、赤外光を発する光源を有する。オブジェクト7の光源は、指示体2の第1光源23よりも大きい。このため、判定部173は、撮像データに示される輝点の大きさの違いに基づいて、オブジェクト7と指示体2とを区別する。 The object 7 has, for example, a light source that emits infrared light. The light source of object 7 is larger than the first light source 23 of indicator 2 . Therefore, the determination unit 173 distinguishes between the object 7 and the indicator 2 based on the difference in the size of the bright spots indicated by the imaging data.

判定部173は、オブジェクト7に対応する輝点が、第1領域R1に位置する場合、維持指示をプロジェクター1がユーザーから受けていると判定する。この場合、維持指示をプロジェクター1がユーザーから受けていないという第5条件は満たされない。 The determination unit 173 determines that the projector 1 has received a maintenance instruction from the user when the bright point corresponding to the object 7 is located in the first region R1. In this case, the fifth condition that the projector 1 has not received a maintenance instruction from the user is not satisfied.

判定部173は、オブジェクト7に対応する輝点が第1領域R1に位置しない場合、維持指示をプロジェクター1がユーザーから受けていないと判定する。この場合、第5条件は満たされる。 The determination unit 173 determines that the projector 1 has not received a maintenance instruction from the user when the bright point corresponding to the object 7 is not located in the first region R1. In this case, the fifth condition is satisfied.

オブジェクト7の形状は、図10に示される形状に限らず適宜変更可能である。オブジェクト7の形状は、例えば、円柱、四角柱、三角柱または半球でもよい。
また、オブジェクト7の表面に、紙媒体の位置を固定するピンのような固定具の絵または文字が記載されてもよい。この場合、ユーザーは、オブジェクト7の機能、すなわち、第1領域R1に表示される画像の変更を禁止することによって、第1領域R1に表示される画像を維持するという機能を、直感的に認識できる。よって、ユーザーは、オブジェクト7の操作を直感的に行える。
The shape of the object 7 is not limited to the shape shown in FIG. 10 and can be changed as appropriate. The shape of the object 7 may be, for example, a cylinder, square prism, triangular prism or hemisphere.
Also, on the surface of the object 7, a picture or characters of a fixture such as a pin for fixing the position of the paper medium may be written. In this case, the user intuitively recognizes the function of the object 7, that is, the function of maintaining the image displayed in the first region R1 by prohibiting the change of the image displayed in the first region R1. can. Therefore, the user can intuitively operate the object 7 .

図11は、変更条件が第6条件である場合における画像切替え動作の一例を説明するためのフローチャートである。図11において、図9に示す処理と同一の処理には同一符号を付してある。以下、図11に示す処理のうち、図9に示す処理と異なる処理を中心に説明する。 FIG. 11 is a flowchart for explaining an example of the image switching operation when the change condition is the sixth condition. In FIG. 11, the same reference numerals are given to the same processes as those shown in FIG. Hereinafter, among the processes shown in FIG. 11, the processes different from the processes shown in FIG. 9 will be mainly described.

ステップS203において後続画像データが受信されると、ステップS301において判定部173は、撮像データおよびキャリブレーションデータを用いて、オブジェクト7に対応する輝点が第1領域R1に存在するか否かを判断する。判定部173は、オブジェクト7に対応する輝点が第1領域R1に存在しない場合、維持指示を受けていないと判定する。判定部173は、オブジェクト7に対応する輝点が第1領域R1に存在する場合、維持指示を受けていると判定する。 When the subsequent image data is received in step S203, in step S301 the determination unit 173 uses the imaging data and the calibration data to determine whether or not the bright point corresponding to the object 7 exists in the first region R1. do. If the bright point corresponding to the object 7 does not exist in the first region R1, the determination unit 173 determines that the maintenance instruction has not been received. The determination unit 173 determines that the maintenance instruction is received when the bright point corresponding to the object 7 exists in the first region R1.

ステップS301において維持指示を受けていないと判定されると、ステップS204が実行される。 If it is determined in step S301 that the maintenance instruction has not been received, step S204 is executed.

ステップS301において維持指示を受けていると判定されると、ステップS302において表示制御部172は、第1領域R1と第2領域R2のうち第2領域R2のみ、画像を切り換える。 When it is determined in step S301 that a maintenance instruction has been received, in step S302 the display control unit 172 switches the image of only the second region R2 out of the first region R1 and the second region R2.

ステップS302では、例えば、第1領域R1に第1画像G1が表示され第2領域R2に第3画像G3が表示されている状況においては、表示制御部172は、第1領域R1に表示される画像を第1画像G1のまま維持し、かつ、第2領域R2に表示される画像を、第3画像G3から第4画像G4に変更する。 In step S302, for example, in a situation where the first image G1 is displayed in the first region R1 and the third image G3 is displayed in the second region R2, the display control unit 172 causes the image to be displayed in the first region R1. The image is maintained as the first image G1, and the image displayed in the second region R2 is changed from the third image G3 to the fourth image G4.

また、ステップS302では、例えば、第1領域R1に第1画像G1が表示され第2領域R2に第2画像G2が表示されている状況においては、表示制御部172は、第1領域R1に表示される画像を第1画像G1のまま維持し、かつ、第2領域R2に表示され画像を、第2画像G2から第4画像G4に変更する。 Further, in step S302, for example, in a situation where the first image G1 is displayed in the first region R1 and the second image G2 is displayed in the second region R2, the display control unit 172 causes the image to be displayed in the first region R1. The image to be displayed is maintained as the first image G1, and the image displayed in the second region R2 is changed from the second image G2 to the fourth image G4.

このように、ステップS302では表示制御部172は、維持指示を受けている状況において後続画像データを受ける場合、第1領域R1に表示されている画像を変更することなく、第2領域R2に表示されている画像を第4画像G4に変更する。
このため、第3変形例では、第1領域R1に表示される画像の変更をユーザーが意図的に禁止できる。
したがって、第2領域R2において表示される画像を変更しつつ、授業において重要な情報、例えば公式などを、第1領域R1に表示し続けることが可能になる。よって、授業を効果的に進めることが可能になる。
また、ユーザーは、オブジェクト7を第1領域R1から外すことによって、第1領域R1に表示される画像を、第2領域R2に表示される画像の更新タイミングに合わせて更新させることができる。
In this way, in step S302, the display control unit 172 displays the image in the second region R2 without changing the image displayed in the first region R1 when the subsequent image data is received while the maintenance instruction is being received. change the displayed image to the fourth image G4.
Therefore, in the third modified example, the user can intentionally prohibit the change of the image displayed in the first region R1.
Therefore, while changing the image displayed in the second area R2, it is possible to continue displaying information important in class, such as formulas, in the first area R1. Therefore, it becomes possible to proceed with the lesson effectively.
Further, by removing the object 7 from the first region R1, the user can update the image displayed in the first region R1 in synchronization with the update timing of the image displayed in the second region R2.

B4.第4変形例
第1実施形態および第1変形例~第3変形例において、第3画像データは、第2画像データと、書込み画像5を示す書込み画像データと、を別々に、例えばレイヤー構造で有してもよい。
この場合、第1領域R1に表示された第3画像G3から、書込み画像5を容易に削除することが可能になる。
B4. Fourth Modification In the first embodiment and the first to third modifications, the third image data consists of the second image data and the written image data representing the written image 5 separately, for example, in a layered structure. may have.
In this case, it is possible to easily delete the written image 5 from the third image G3 displayed in the first area R1.

B5.第5変形例
第1実施形態および第1変形例~第4変形例において、プロジェクター1は、例えば、USBケーブルを介して第3画像データを外部装置に出力してもよい。
B5. Fifth Modification In the first embodiment and the first to fourth modifications, the projector 1 may output the third image data to an external device via a USB cable, for example.

B6.第6変形例
第1実施形態および第1変形例~第5変形例において、第4画像Gは、後続画像データが示す画像に限らず、第2画像データ、または、第2画像データよりも時間的に前に供給された画像データ、例えば、第1画像データが示す画像でもよい。
この場合、例えば、書き込みが行われる前の画像、例えば第2画像G2と、書き込みが行われた後の画像、例えば第3画像G3とを、並べて表示することが可能になる。
B6. Sixth Modified Example In the first embodiment and the first to fifth modified examples, the fourth image G is not limited to the image indicated by the subsequent image data, but is the second image data or the second image data. It may also be an image represented by previously supplied image data, for example the first image data.
In this case, for example, an image before writing, such as the second image G2, and an image after writing, such as the third image G3, can be displayed side by side.

B7.第7変形例
第1実施形態および第1変形例~第6変形例において、指示体2は、赤外光を発光しない物体、例えば人の指でもよい。この場合、投射面4に沿って面状に赤外光を出射する光出力装置が、投射面4の上端4aよりも上に設けられる。
プロジェクター1は、光出力装置から出射された赤外光のうち、投射面4上の指示体2によって反射された反射光を、カメラ15で撮像する。
プロジェクター1は、カメラ15による撮像によって生成される撮像データを解析することによって、指示体2による操作位置を特定する。
B7. Seventh Modification In the first embodiment and the first to sixth modifications, the pointer 2 may be an object that does not emit infrared light, such as a human finger. In this case, a light output device that planarly emits infrared light along the projection surface 4 is provided above the upper end 4 a of the projection surface 4 .
In the projector 1 , the camera 15 captures an image of the infrared light emitted from the light output device and reflected by the indicator 2 on the projection surface 4 .
The projector 1 identifies the operation position of the pointer 2 by analyzing the imaging data generated by the imaging by the camera 15 .

B8.第8変形例
第1実施形態および第1変形例~第7変形例において、操作部11に、要求指示を入力するための物理的な更新ボタンが設けられてもよい。また、操作部11に、維持指示を入力するための物理的な維持指示ボタンが設けられてもよい。
B8. Eighth Modification In the first embodiment and the first to seventh modifications, the operation unit 11 may be provided with a physical update button for inputting a request instruction. Also, the operation unit 11 may be provided with a physical maintenance instruction button for inputting a maintenance instruction.

B9.第9変形例
第1実施形態および第1変形例~第8変形例において、プロジェクター1は、動作モードとして、指示体2によって書込みを実行する書込みモードと、指示体2をいわゆるマウスとして用いるマウスモードと、を有してもよい。
動作制御部171は、動作モードを、例えば操作部11へのモード切替入力によって切り替える。
この場合、書込み画像5は、書込みモードにおいて作成され、更新ボタン6への操作は、マウスモードにおいて実行される。
B9. Ninth Modification In the first embodiment and the first to eighth modifications, the projector 1 operates in a writing mode in which writing is performed using the pointer 2 and a mouse mode in which the pointer 2 is used as a so-called mouse. and may have
The operation control unit 171 switches the operation mode by, for example, mode switching input to the operation unit 11 .
In this case the writing image 5 is created in writing mode and the operation to the update button 6 is performed in mouse mode.

B10.第10変形例
第1実施形態および第1変形例~第9変形例において、光変調装置の一例として液晶ライトバルブ145が用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合、色分離光学系および色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、第2光源144が発した光を変調可能な構成は、光変調装置として採用できる。
B10. Tenth Modification In the first embodiment and the first to ninth modifications, the liquid crystal light valve 145 was used as an example of the light modulation device, but the light modulation device is not limited to the liquid crystal light valve and can be changed as appropriate. be. For example, the light modulation device may be configured using three reflective liquid crystal panels. Further, the optical modulation device may have a structure using one liquid crystal panel, a method using three digital mirror devices (DMD), a method using one digital mirror device, or the like. If only one liquid crystal panel or DMD is used as the light modulator, members corresponding to the color separating optical system and the color synthesizing optical system are unnecessary. In addition to the liquid crystal panel and DMD, a configuration capable of modulating the light emitted by the second light source 144 can be employed as the light modulation device.

B11.第11変形例
第1実施形態および第1変形例~第10変形例において、表示装置として、プロジェクター1ではなくFPDが用いられる場合、表示装置としてのFPDは、例えば、電子黒板または電子会議システムに用いられているFPDでもよい。
B11. Eleventh Modification In the first embodiment and the first to tenth modifications, when an FPD is used instead of the projector 1 as the display device, the FPD as the display device is, for example, an electronic blackboard or an electronic conference system. The FPD used may be used.

1…プロジェクター、2…指示体、5…書込み画像、11…操作部、12…受光部、13a…第2通信部、13b…画像データ受信部、14…投射部、15…カメラ、16…記憶部、17…処理部、171…動作制御部、172…表示制御部、173…判定部。 DESCRIPTION OF SYMBOLS 1... Projector 2... Indicator 5... Written image 11... Operation part 12... Light receiving part 13a... Second communication part 13b... Image data receiving part 14... Projection part 15... Camera 16... Memory Section 17 ... Processing section 171 ... Operation control section 172 ... Display control section 173 ... Judgment section.

Claims (3)

表示面に画像を表示する表示装置が実行する動作方法であって、
前記表示面のうち第1領域に第1画像を表示し、かつ、前記表示面のうち前記第1領域とは異なる第2領域に第2画像を表示し、
前記第2画像に対する書込み操作に基づく書込み画像を前記第2画像に重畳することによって生成される第3画像を、前記第2画像に代えて前記第2領域に表示し、
前記第1領域に表示される画像と前記第2領域に表示される画像とを変更する条件が満たされるか否かを判定し、
前記第1領域に前記第1画像が表示され、かつ前記第2領域に前記第3画像が表示される状況において、前記判定において前記条件が満たされると判定する場合、
前記第1領域に表示される画像を、前記第1画像から前記第3画像に変更し、かつ、前記第2領域に表示される画像を、前記第3画像から第4画像に変更し、
前記条件は、第4条件が満たされかつ第5条件が満たされるという第6条件であり、
前記第4条件は、
前記第2画像を示す画像データよりも時間的に後に前記表示装置に供給される後続画像データを前記表示装置が受けるという条件と、
前記後続画像データの供給を示す供給信号を前記表示装置が受けるという条件と、
前記第2画像を示す画像データと、前記後続画像データとが、相互に異なるという条件と、のいずれかであり、
前記第5条件は、
前記第1領域に表示される画像を維持する維持指示を前記表示装置がユーザーから受けていないという条件であり、
前記維持指示は、
赤外光を発する光源を有するオブジェクトが、前記第1領域に装着されることであり、
前記オブジェクトに対応する輝点が、前記第1領域に位置しない場合、前記維持指示を前記表示装置が前記ユーザーから受けていないと判定する、
動作方法。
A method of operation performed by a display device for displaying an image on a display surface, comprising:
displaying a first image in a first region of the display surface and displaying a second image in a second region different from the first region of the display surface;
displaying a third image generated by superimposing a writing image based on a writing operation on the second image on the second image in place of the second image in the second area;
Determining whether a condition for changing the image displayed in the first area and the image displayed in the second area is satisfied,
When determining that the condition is satisfied in the determination in a situation where the first image is displayed in the first area and the third image is displayed in the second area,
changing an image displayed in the first area from the first image to the third image, and changing an image displayed in the second area from the third image to a fourth image;
the condition is a sixth condition that the fourth condition is satisfied and the fifth condition is satisfied;
The fourth condition is
a condition that the display device receives subsequent image data provided to the display device temporally later than image data representing the second image;
a condition that the display device receives a supply signal indicating the supply of the subsequent image data;
either the condition that the image data representing the second image and the subsequent image data are different from each other;
The fifth condition is
The condition is that the display device has not received a maintenance instruction from the user to maintain the image displayed in the first area ,
The maintenance instructions are
an object having a light source that emits infrared light is attached to the first region;
determining that the display device has not received the maintenance instruction from the user when the bright point corresponding to the object is not located in the first region;
How it works.
前記オブジェクトに対応する輝点が、前記第1領域に位置する場合、前記維持指示を前記表示装置が前記ユーザーから受けていると判定し、
前記維持指示を前記表示装置が前記ユーザーから受ける状況において前記後続画像データを前記表示装置が受ける場合、前記第1領域に表示される画像を変更することなく、前記第2領域に表示される画像を前記第4画像に変更する、
請求項1に記載の動作方法。
determining that the display device has received the maintenance instruction from the user when the bright point corresponding to the object is located in the first region;
An image displayed in the second area without changing the image displayed in the first area when the display apparatus receives the subsequent image data in a situation where the display apparatus receives the maintenance instruction from the user. to the fourth image;
A method of operation according to claim 1 .
表示面に画像を表示する表示装置であって、
前記表示面のうち第1領域に第1画像を表示し、かつ、前記表示面のうち前記第1領域とは異なる第2領域に第2画像を表示する表示部と、
前記表示部を制御する表示制御部と、
前記第1領域に表示される画像と前記第2領域に表示される画像とを変更する条件が満たされるか否かを判定する判定部と、
を含み、
前記表示制御部は、
前記第2画像に対する書込み操作に基づく書込み画像を前記第2画像に重畳することによって生成される第3画像を、前記第2画像に代えて前記第2領域に表示する動作を、前記表示部に実行させ、
前記第1領域に前記第1画像が表示され、かつ前記第2領域に前記第3画像が表示される状況において、前記条件が満たされると判定する場合、
前記第1領域に表示される画像を、前記第1画像から前記第3画像に変更しかつ前記第2領域に表示される画像を、前記第3画像から第4画像に変更する動作を、前記表示部に実行させ、
前記条件は、第4条件が満たされかつ第5条件が満たされるという第6条件であり、
前記第4条件は、
前記第2画像を示す画像データよりも時間的に後に前記表示装置に供給される後続画像データを前記表示装置が受けるという条件と、
前記後続画像データの供給を示す供給信号を前記表示装置が受けるという条件と、
前記第2画像を示す画像データと、前記後続画像データとが、相互に異なるという条件と、のいずれかであり、
前記第5条件は、
前記第1領域に表示される画像を維持する維持指示を前記表示装置がユーザーから受けていないという条件であり、
前記維持指示は、
赤外光を発する光源を有するオブジェクトが、前記第1領域に装着されることであり、
前記判定部は、
前記オブジェクトに対応する輝点が、前記第1領域に位置しない場合、前記維持指示を前記表示装置が前記ユーザーから受けていないと判定する、
表示装置。
A display device for displaying an image on a display surface,
a display unit that displays a first image on a first area of the display surface and displays a second image on a second area that is different from the first area on the display surface;
a display control unit that controls the display unit;
a determination unit that determines whether a condition for changing the image displayed in the first area and the image displayed in the second area is satisfied;
including
The display control unit
an operation of displaying a third image generated by superimposing a writing image based on a writing operation on the second image on the second image in the second area instead of the second image; let it run,
When determining that the condition is satisfied in a situation where the first image is displayed in the first area and the third image is displayed in the second area,
The operation of changing the image displayed in the first area from the first image to the third image and changing the image displayed in the second area from the third image to the fourth image, Let the display unit execute
the condition is a sixth condition that the fourth condition is satisfied and the fifth condition is satisfied;
The fourth condition is
a condition that the display device receives subsequent image data provided to the display device temporally later than image data representing the second image;
a condition that the display device receives a supply signal indicating the supply of the subsequent image data;
either the condition that the image data representing the second image and the subsequent image data are different from each other;
The fifth condition is
The condition is that the display device has not received a maintenance instruction from the user to maintain the image displayed in the first area ,
The maintenance instructions are
an object having a light source that emits infrared light is attached to the first region;
The determination unit is
determining that the display device has not received the maintenance instruction from the user when the bright point corresponding to the object is not located in the first region;
display device.
JP2021168768A 2019-06-07 2021-10-14 Display device operation method and display device Active JP7302640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021168768A JP7302640B2 (en) 2019-06-07 2021-10-14 Display device operation method and display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019106718A JP2020201330A (en) 2019-06-07 2019-06-07 Operation method for display unit and display unit
JP2021168768A JP7302640B2 (en) 2019-06-07 2021-10-14 Display device operation method and display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019106718A Division JP2020201330A (en) 2019-06-07 2019-06-07 Operation method for display unit and display unit

Publications (3)

Publication Number Publication Date
JP2022017323A JP2022017323A (en) 2022-01-25
JP2022017323A5 JP2022017323A5 (en) 2022-05-13
JP7302640B2 true JP7302640B2 (en) 2023-07-04

Family

ID=86996583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021168768A Active JP7302640B2 (en) 2019-06-07 2021-10-14 Display device operation method and display device

Country Status (1)

Country Link
JP (1) JP7302640B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157825A (en) 2004-12-01 2006-06-15 Canon Inc Image selection method and image selection apparatus
JP2010268204A (en) 2009-05-14 2010-11-25 Canon Inc Image processing apparatus and control method and program of the same
JP2011138005A (en) 2009-12-28 2011-07-14 Nec Lcd Technologies Ltd Image display control device, image display device, image display control method, and image display control program
JP2014033381A (en) 2012-08-06 2014-02-20 Ricoh Co Ltd Information processing apparatus and program, and image processing system
JP2017181532A (en) 2016-03-28 2017-10-05 セイコーエプソン株式会社 Display system, display device, and display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157825A (en) 2004-12-01 2006-06-15 Canon Inc Image selection method and image selection apparatus
JP2010268204A (en) 2009-05-14 2010-11-25 Canon Inc Image processing apparatus and control method and program of the same
JP2011138005A (en) 2009-12-28 2011-07-14 Nec Lcd Technologies Ltd Image display control device, image display device, image display control method, and image display control program
JP2014033381A (en) 2012-08-06 2014-02-20 Ricoh Co Ltd Information processing apparatus and program, and image processing system
JP2017181532A (en) 2016-03-28 2017-10-05 セイコーエプソン株式会社 Display system, display device, and display method

Also Published As

Publication number Publication date
JP2022017323A (en) 2022-01-25

Similar Documents

Publication Publication Date Title
US9684385B2 (en) Display device, display system, and data supply method for display device
JP5874401B2 (en) Display device, projector, display system, and device switching method
US9396520B2 (en) Projector system and control method thereof
JP2014052930A (en) Display device and control method of display device
JP2013064917A (en) Display device, projector, and display method
JP2008122650A (en) Projector
JP5407381B2 (en) Image input device, image display device, and image display system
US9830723B2 (en) Both-direction display method and both-direction display apparatus
JP2017182109A (en) Display system, information processing device, projector, and information processing method
JP6117470B2 (en) Display device, projector, image display method, and display system
CN112055185B (en) Operation method and display device
JP7302640B2 (en) Display device operation method and display device
US20190295499A1 (en) Display device, display system, and method of controlling display device
JP2018022013A (en) Display device, display system, and method for controlling display device
US20170090707A1 (en) Interactive display method and interactive display device
JP6369082B2 (en) Projector, display device, and projector control method
JP2015156167A (en) Image projection device, control method of image projection device, and control program of image projection device
US11353971B2 (en) Method for controlling display device, and display device
US20220232195A1 (en) Projection apparatus
JP5061762B2 (en) Document camera apparatus, image processing method and program
JP2020173327A (en) Display method and display unit
JP2020173328A (en) Display method and display device
JP5488584B2 (en) Image processing apparatus and program
JP6361206B2 (en) Projector, projector control method, and display device
JP2020191045A (en) Indicator, display system, and operation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7302640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150