JP2023097686A - Display method and display device - Google Patents

Display method and display device Download PDF

Info

Publication number
JP2023097686A
JP2023097686A JP2021213934A JP2021213934A JP2023097686A JP 2023097686 A JP2023097686 A JP 2023097686A JP 2021213934 A JP2021213934 A JP 2021213934A JP 2021213934 A JP2021213934 A JP 2021213934A JP 2023097686 A JP2023097686 A JP 2023097686A
Authority
JP
Japan
Prior art keywords
input
projector
image
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021213934A
Other languages
Japanese (ja)
Inventor
孝 名取
Takashi Natori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021213934A priority Critical patent/JP2023097686A/en
Publication of JP2023097686A publication Critical patent/JP2023097686A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve an operability as of when a user inputs characters by indicator.SOLUTION: A display method includes: receiving an input to a display surface; obtaining an input position subjected to the input; displaying a first object 101 on the display surface on the basis of the input position; determining whether or not the first object 101 is a character; and displaying, when the first object 101 is determined to be a character, a first guide image that guides the input position relating to the input on the display surface on the basis of a first region where the first object 101 is displayed.SELECTED DRAWING: Figure 6

Description

本発明は、表示方法、及び、表示装置に関する。 The present invention relates to a display method and a display device.

従来、ペン等の指示体による入力に応じて文字を描画する装置装置が知られている。例えば、特許文献1に開示された装置は、手書き入力モードにおいて、複数の文字の入力位置から文字の入力方向を決定し、入力方向に沿って補助線を表示する。 2. Description of the Related Art Conventionally, there is known a device that draws characters according to an input using an indicator such as a pen. For example, in the handwriting input mode, the device disclosed in Patent Literature 1 determines the character input direction from the input positions of a plurality of characters, and displays auxiliary lines along the input direction.

特開2011-233102号公報Japanese Unexamined Patent Application Publication No. 2011-233102

特許文献1に開示の装置は、補助線を表示するために、文字の入力方向を決定する必要がある。すなわち、複数の文字が入力されることを必要とする。このため、文字入力を開始してから補助線が表示されるまでに時間と手間がかかるという課題がある。 The device disclosed in Patent Document 1 needs to determine the character input direction in order to display the auxiliary line. That is, it requires multiple characters to be entered. Therefore, there is a problem that it takes time and effort from the start of character input until the auxiliary line is displayed.

本開示の一態様は、表示面に対する入力を受け付けることと、前記入力が行われた入力位置を取得することと、前記入力位置に基づいて第1オブジェクトを前記表示面に表示することと、前記第1オブジェクトが文字であるかを判定することと、前記第1オブジェクトが文字である場合に、前記第1オブジェクトが表示された第1領域に基づいて、前記表示面に、前記入力に関連する入力位置を案内する第1ガイド画像を表示することと、を含む、表示方法である。 According to one aspect of the present disclosure, receiving an input on a display surface, obtaining an input position where the input is performed, displaying a first object on the display surface based on the input position, Determining whether a first object is a character; and, if the first object is a character, displaying on the display surface based on a first region in which the first object is displayed, a and displaying a first guide image for guiding an input position.

本開示の別の一態様は、表示面に表示を行う表示部と、前記表示面に対する入力を受け付ける入力部と、前記入力が行われた入力位置を取得して、前記入力位置に基づいて第1オブジェクトを前記表示部に表示させる制御部と、を備え、前記制御部は、前記第1オブジェクトが文字であるかを判定することと、前記第1オブジェクトが文字である場合に、前記第1オブジェクトが表示された第1領域に基づいて、前記入力に関連する入力位置を案内する第1ガイド画像を前記表示部に表示させることと、を含む表示装置である。 Another aspect of the present disclosure is a display unit that displays on a display surface, an input unit that receives an input to the display surface, an input position at which the input is performed, and a second display based on the input position. a control unit that causes the display unit to display one object, wherein the control unit determines whether the first object is a character; and if the first object is a character, the first causing the display unit to display a first guide image that guides an input position related to the input based on a first area in which an object is displayed.

プロジェクターの設置状態の例を示す外観図。FIG. 2 is an external view showing an example of an installation state of the projector; プロジェクターのブロック図。Block diagram of a projector. 第1実施形態におけるプロジェクターの動作を示すフローチャート。4 is a flowchart showing the operation of the projector according to the first embodiment; 第1実施形態におけるプロジェクターの動作を示すフローチャート。4 is a flowchart showing the operation of the projector according to the first embodiment; 第1実施形態における投写画像の例を示す図。4A and 4B are diagrams showing examples of projected images in the first embodiment; FIG. 第1実施形態における投写画像の例を示す図。4A and 4B are diagrams showing examples of projected images in the first embodiment; FIG. 第2実施形態における投写画像の例を示す図。FIG. 10 is a diagram showing an example of a projected image in the second embodiment; FIG. 第2実施形態におけるプロジェクターの動作を示すフローチャート。8 is a flowchart showing the operation of the projector according to the second embodiment; 第3実施形態における投写画像の例を示す図。FIG. 11 is a diagram showing an example of a projected image in the third embodiment; FIG. 第3実施形態における投写画像の例を示す図。FIG. 11 is a diagram showing an example of a projected image in the third embodiment; FIG. 第3実施形態におけるプロジェクターの動作を示すフローチャート。9 is a flowchart showing the operation of the projector according to the third embodiment; 第3実施形態におけるプロジェクターの動作を示すフローチャート。9 is a flowchart showing the operation of the projector according to the third embodiment; 第3実施形態における投写画像の別の例を示す図。FIG. 11 is a diagram showing another example of a projected image in the third embodiment; 第3実施形態における投写画像の別の例を示す図。FIG. 11 is a diagram showing another example of a projected image in the third embodiment;

[1.第1実施形態]
[1-1.プロジェクターの構成]
図1は、プロジェクター1の設置状態を示す外観図である。図1には、第1実施形態に係るプロジェクター1を壁掛け設置する例を示す。図1の設置状態において、プロジェクター1は、建物の壁面に固定され、下方に向けて画像光PLを投写する。
[1. First Embodiment]
[1-1. Projector configuration]
FIG. 1 is an external view showing an installation state of the projector 1. As shown in FIG. FIG. 1 shows an example in which a projector 1 according to the first embodiment is installed on a wall. In the installation state of FIG. 1, the projector 1 is fixed to the wall surface of the building and projects image light PL downward.

本実施形態のプロジェクター1は、表示装置の一例に対応する。プロジェクター1は、投写対象であるスクリーンSCに画像光PLを投写することによって、スクリーンSCに投写画像Pを結像させる。プロジェクター1が投写画像Pを結像させることは、スクリーンSCに投写画像Pを表示することに相当する。スクリーンSCは表示面の一例に対応する。 The projector 1 of this embodiment corresponds to an example of a display device. The projector 1 forms a projection image P on the screen SC by projecting the image light PL onto the screen SC, which is a projection target. Forming the projection image P by the projector 1 corresponds to displaying the projection image P on the screen SC. A screen SC corresponds to an example of a display surface.

スクリーンSCは、プロジェクター1が発する画像光PLを反射して像を形成可能であれば、その形態は限定されない。例えば、スクリーンSCは、壁面等の平面、或いは、吊り下げ設置された幕であってもよい。スクリーンSCは、筆記が可能な黒板、または、ホワイトボードであってもよい。 The form of the screen SC is not limited as long as it can form an image by reflecting the image light PL emitted by the projector 1 . For example, the screen SC may be a flat surface such as a wall surface, or a hanging curtain. The screen SC may be a blackboard or whiteboard on which writing is possible.

プロジェクター1は、指示体3による操作を検出する。プロジェクター1が指示体3の操作を検出する範囲は、画像光PLを投写する範囲を含む。すなわち、プロジェクター1は、投写画像Pを含む範囲における指示体3の位置を検出する。指示体3は、ユーザーの身体の一部であってもよい。具体例には、プロジェクター1は、ユーザーの手指を指示体3として検出可能な構成であってもよい。また、指示体3は、ユーザーが手に持って操作するデバイスであってもよい。例えば、指示体3の形状は、ペン形状、棒状、或いは、その他の形状とすることができる。 The projector 1 detects an operation by the pointer 3 . The range in which the projector 1 detects the operation of the pointer 3 includes the range in which the image light PL is projected. That is, the projector 1 detects the position of the pointer 3 in the range including the projection image P. FIG. The indicator 3 may be a part of the user's body. As a specific example, the projector 1 may be configured to detect the finger of the user as the indicator 3 . Also, the indicator 3 may be a device that is held and operated by the user. For example, the shape of the pointer 3 can be pen-shaped, rod-shaped, or other shapes.

本実施形態では、ペン型のデバイスである指示体3A、及び、指示体3Bを例示する。指示体3A、3Bは、同一の構成を有する。以下の説明では、指示体3Aと指示体3Bを区別しない場合に指示体3と記載する。 In this embodiment, an indicator 3A and an indicator 3B, which are pen-type devices, are exemplified. The indicators 3A and 3B have the same configuration. In the following description, the indicator 3A and the indicator 3B are referred to as the indicator 3 when not distinguished from each other.

ユーザーは、指示体3によって位置を指示する操作を行う。例えば、ユーザーは、投写画像Pにおける所望の一点を指示体3により指し示す操作を行う。プロジェクター1は、指示体3によって指し示された位置を検出する。この位置を入力位置と呼び、入力位置を検出する処理を位置検出処理という。指示体3により指し示される位置とは、例えば、ペン型のデバイスである指示体3の先端の位置である。ユーザーが、ユーザーの手指を指示体として利用する場合、プロジェクター1は、指の先端の位置を、入力位置として検出する。 A user performs an operation of indicating a position with the pointer 3 . For example, the user performs an operation of pointing the pointer 3 at a desired point in the projected image P. FIG. The projector 1 detects the position indicated by the pointer 3 . This position is called an input position, and processing for detecting the input position is called position detection processing. The position indicated by the indicator 3 is, for example, the position of the tip of the indicator 3, which is a pen-type device. When the user uses the user's finger as an indicator, the projector 1 detects the position of the tip of the finger as the input position.

プロジェクター1は、指示体3の入力位置に合わせて文字や図形を形成し、形成した文字や図形を含む投写画像PをスクリーンSCに表示する。プロジェクター1が文字や図形を形成する処理を、描画と呼ぶ。例えば、プロジェクター1は、指示体3の入力位置の軌跡に沿って曲線や直線を形成し、指示体3の入力が終了したときに、形成した曲線や直線の画像データを生成する。この画像データを生成するまでの一連の処理が、描画に相当する。プロジェクター1は、生成した画像データを含む画像光PLを生成し、画像光PLをスクリーンSCに投写する。プロジェクター1が生成した画像データに基づいてスクリーンSCに表示された画像を、オブジェクトと呼ぶ。図1には、指示体3の入力位置の軌跡に沿った曲線からなるオブジェクト100を示す。 The projector 1 forms characters and figures according to the input position of the indicator 3, and displays a projection image P including the formed characters and figures on the screen SC. The process of forming characters and figures by the projector 1 is called drawing. For example, the projector 1 forms a curved line or straight line along the locus of the input position of the pointer 3, and generates image data of the formed curved line or straight line when the input of the pointer 3 is completed. A series of processes up to generation of this image data corresponds to drawing. The projector 1 generates image light PL including generated image data, and projects the image light PL onto the screen SC. An image displayed on the screen SC based on the image data generated by the projector 1 is called an object. FIG. 1 shows an object 100 consisting of a curved line along the trajectory of the input position of the pointer 3 .

図2は、プロジェクター1のブロック図である。
プロジェクター1は、投写部10、画像処理部11、フレームメモリー12、撮影部13、画像入力部14、操作部15、及び、制御部20を備える。
FIG. 2 is a block diagram of the projector 1. As shown in FIG.
The projector 1 includes a projection section 10 , an image processing section 11 , a frame memory 12 , an imaging section 13 , an image input section 14 , an operation section 15 and a control section 20 .

投写部10は、画像光PLを形成し、画像光PLをスクリーンSCに投写する。投写部10が画像光PLを形成する構成としては、例えば、光源、及び、光源が発する光を変調する光変調装置が挙げられる。光源は、ランプであってもよいし、固体光源であってもよい。固体光源は、例えば、LED(Light Emitting Diode)、レーザー光源である。光変調装置は、透過型液晶パネル、反射型液晶パネル、DMD(Digital Mirror Device)等で構成される。また、投写部10は、光源及び光変調装置に代えて、画像光PLを発する自発光型の表示素子を備えてもよい。自発光型の表示素子は、例えば、OLED(Organic LED)が挙げられる。投写部10は、投写部10の内部において画像光PLを導く光学素子、及び、画像光PLをスクリーンSCに向けて放射させる光学素子を備えてもよい。光学素子としては、レンズ、ダイクロイックミラー、ダイクロイックプリズム、偏光光学素子が挙げられるが、その他の素子を用いてもよい。投写部10は、表示部の一例に対応する。 The projection unit 10 forms image light PL and projects the image light PL onto the screen SC. A configuration in which the projection unit 10 forms the image light PL includes, for example, a light source and a light modulation device that modulates the light emitted by the light source. The light source may be a lamp or a solid state light source. Solid-state light sources are, for example, LEDs (Light Emitting Diodes) and laser light sources. The optical modulator is composed of a transmissive liquid crystal panel, a reflective liquid crystal panel, a DMD (Digital Mirror Device), or the like. Also, the projection unit 10 may include a self-luminous display element that emits the image light PL instead of the light source and the light modulation device. Self-luminous display elements include, for example, OLEDs (Organic LEDs). The projection unit 10 may include an optical element that guides the image light PL inside the projection unit 10 and an optical element that radiates the image light PL toward the screen SC. Examples of optical elements include lenses, dichroic mirrors, dichroic prisms, and polarizing optical elements, but other elements may also be used. The projection unit 10 corresponds to an example of a display unit.

撮影部13は、撮像素子を備えるデジタルカメラである。撮像素子は、例えば、CCD(Charge Coupled Device)センサー、或いは、CMOS(Complementary Metal Oxide Semiconductor)センサーである。撮影部13は、投写画像Pを含む撮影範囲を撮影し、撮影画像データを制御部20に出力する。撮影部13は、可視光を吸収して赤外光を透過させる赤外透過フィルターを有する構成であってもよい。この場合、撮影部13は、赤外光を撮像素子により受光することによって、赤外線撮影を実行する。 The photographing unit 13 is a digital camera having an imaging device. The imaging device is, for example, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The photographing unit 13 photographs a photographing range including the projection image P and outputs photographed image data to the control unit 20 . The photographing unit 13 may have an infrared transmission filter that absorbs visible light and transmits infrared light. In this case, the photographing unit 13 performs infrared photographing by receiving infrared light with the imaging element.

画像入力部14は、外部の画像供給装置から画像信号を受信する。ここで、画像信号とは、静止画像の信号であっても映像信号であってもよい。画像供給装置は、例えば、コンピューター、メディアプレイヤー等である。画像入力部14は、例えば、ケーブルを介して画像供給装置に接続される入力端子と、入力端子に入力される信号を処理するインターフェイス回路とを含む。画像入力部14は、無線通信により画像信号を受信する無線通信装置であってもよい。 The image input unit 14 receives image signals from an external image supply device. Here, the image signal may be a still image signal or a video signal. The image supply device is, for example, a computer, media player, or the like. The image input unit 14 includes, for example, an input terminal connected to the image supply device via a cable, and an interface circuit for processing signals input to the input terminal. The image input unit 14 may be a wireless communication device that receives image signals by wireless communication.

操作部15は、ユーザーによる操作を検出する。操作部15は、例えば、プロジェクター1の筐体表面に設けられるボタンやスイッチを備える。この場合、操作部15は、ボタンやスイッチの操作に対応した操作信号を生成して、制御部20に出力する。操作部15は、不図示のリモコンから信号を受信する受信回路を備えてもよい。この場合、操作部15は、リモコンから受信した信号に基づいて、リモコンによる操作を検出し、リモコンによる操作を示す操作信号を制御部20に出力する。 The operation unit 15 detects user's operation. The operation unit 15 includes, for example, buttons and switches provided on the surface of the housing of the projector 1 . In this case, the operation unit 15 generates an operation signal corresponding to the button or switch operation and outputs the operation signal to the control unit 20 . The operation unit 15 may include a receiving circuit that receives a signal from a remote controller (not shown). In this case, the operation unit 15 detects an operation by the remote controller based on the signal received from the remote controller, and outputs an operation signal indicating the operation by the remote controller to the control unit 20 .

制御部20は、プロセッサー21、及び、メモリー30を備えるコンピューター装置である。制御部20は、メモリー30が記憶する制御プログラム31をプロセッサー21が実行することによって、プロジェクター1を制御する。 The control unit 20 is a computer device that includes a processor 21 and memory 30 . The control unit 20 controls the projector 1 by causing the processor 21 to execute the control program 31 stored in the memory 30 .

メモリー30は、プロセッサー21が実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー30は、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。メモリー30は、プロセッサー21のワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー30は、制御部20により処理されるデータや、プロセッサー21が実行する制御プログラム31を記憶する。 The memory 30 is a storage device that stores programs and data executed by the processor 21 in a non-volatile manner. The memory 30 is composed of a magnetic storage device, a semiconductor storage device such as a flash ROM (Read Only Memory), or other types of non-volatile storage devices. The memory 30 may include a RAM (Random Access Memory) forming a work area of the processor 21 . The memory 30 stores data processed by the control unit 20 and a control program 31 executed by the processor 21 .

プロセッサー21は、単一のプロセッサーで構成されてもよいし、複数のプロセッサーで構成されてもよい。プロセッサー21は、メモリー30の一部または全部、及び/または、その他の回路と統合されたSoC(System on Chip)で構成されてもよい。また、上述のように、プロセッサー21は、プログラムを実行するCPU(Central Processing Unit)と、所定の演算処理を実行するDSP(Digital Signal Processor)との組合せにより構成してもよい。プロセッサー21の機能の全てを、ハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。また、プロセッサー21は、画像処理部11の機能を兼ねてもよい。すなわち、画像処理部11の機能を、プロセッサー21が実行してもよい。 The processor 21 may be composed of a single processor, or may be composed of a plurality of processors. The processor 21 may be composed of a part or all of the memory 30 and/or an SoC (System on Chip) integrated with other circuits. Further, as described above, the processor 21 may be configured by a combination of a CPU (Central Processing Unit) that executes programs and a DSP (Digital Signal Processor) that executes predetermined arithmetic processing. All the functions of the processor 21 may be implemented in hardware, or may be configured using a programmable device. The processor 21 may also function as the image processing section 11 . That is, the functions of the image processing section 11 may be executed by the processor 21 .

制御部20は、制御プログラム31によって実現される機能ブロックとして、受付部22、描画処理部23、及び、投写制御部24を備える。これらの機能ブロックは、プロセッサー21が制御プログラム31を実行することにより実現される機能をブロックにより便宜的に示したものである。 The control unit 20 includes a reception unit 22 , a drawing processing unit 23 , and a projection control unit 24 as functional blocks realized by the control program 31 . These functional blocks represent functions realized by the processor 21 executing the control program 31 for convenience.

受付部22は、指示体3による入力を受け付けて、入力位置を特定する。具体的には、受付部22は、撮影部13の撮影画像を取得し、撮影画像から、指示体3の画像を抽出する。指示体3の画像を抽出する処理は、例えば、パターンマッチング、或いはその他の公知の画像処理を利用して実行される。 The accepting unit 22 accepts an input by the indicator 3 and identifies the input position. Specifically, the receiving unit 22 acquires the image captured by the image capturing unit 13 and extracts the image of the indicator 3 from the captured image. The process of extracting the image of the pointer 3 is performed using, for example, pattern matching or other known image processing.

また、指示体3が赤外光を発し、撮影部13が赤外線撮影を実行し、赤外線撮影画像に基づいて受付部22が入力位置を検出する構成であってもよい。詳細には、指示体3は、赤外光を発する赤外線光源を備え、指示体3の先端から赤外光を発する構成であってもよい。撮影部13は、上述した赤外透過フィルターを利用して赤外線撮影を実行し、赤外線撮影画像を制御部20に出力する。受付部22は、撮影部13の赤外線撮影画像から、指示体3の先端が発する赤外光の画像を抽出する。受付部22は、さらに、指示体3の先端がスクリーンSCに接触しているか否かを、赤外線撮影画像における画像の位置に基づき判定する。受付部22は、指示体3の先端がスクリーンSCに接触していると判定した場合、指示体3の先端の位置を入力位置として特定する。 Alternatively, the pointer 3 may emit infrared light, the photographing unit 13 may perform infrared photographing, and the receiving unit 22 may detect the input position based on the infrared photographed image. Specifically, the pointer 3 may be configured to include an infrared light source that emits infrared light, and to emit the infrared light from the tip of the pointer 3 . The photographing unit 13 performs infrared photographing using the infrared transmission filter described above, and outputs an infrared photographed image to the control unit 20 . The reception unit 22 extracts an image of infrared light emitted by the tip of the pointer 3 from the infrared image captured by the image capturing unit 13 . The reception unit 22 further determines whether or not the tip of the pointer 3 is in contact with the screen SC based on the position of the infrared captured image. When the reception unit 22 determines that the tip of the indicator 3 is in contact with the screen SC, the reception unit 22 specifies the position of the tip of the indicator 3 as the input position.

指示体3が赤外光を発する構成では、プロジェクター1が、指示体3Aと指示体3Bとを識別することが可能である。例えば、指示体3A及び指示体3Bが、赤外線光源を明滅させることにより、所定のパターンで赤外光を発する構成が挙げられる。この場合、指示体3Aと指示体3Bとが、異なるパターンで赤外光を発光させる。受付部22は、赤外光の発光パターンに基づき、指示体3Aによる入力と、指示体3Bによる入力とを識別できる。受付部22は、例えば、撮影部13による撮影タイミングが異なる複数の撮影画像から、指示体3が発する赤外光の像を抽出することによって、指示体3の赤外光の発光パターンを特定できる。 In a configuration in which the indicator 3 emits infrared light, the projector 1 can distinguish between the indicator 3A and the indicator 3B. For example, there is a configuration in which the indicator 3A and the indicator 3B emit infrared light in a predetermined pattern by blinking the infrared light source. In this case, the indicator 3A and the indicator 3B emit infrared light in different patterns. The reception unit 22 can distinguish between the input by the indicator 3A and the input by the indicator 3B based on the emission pattern of the infrared light. For example, the reception unit 22 can identify the infrared light emission pattern of the pointer 3 by extracting the infrared light image emitted by the pointer 3 from a plurality of captured images captured by the imaging unit 13 at different timings. .

プロジェクター1は、スクリーンSCの近傍に向けて赤外光を発する発光装置を備えてもよい。この場合、発光装置が発する赤外光を反射する物体を、指示体3として利用できる。例えば、ユーザーの手指を指示体3として利用できる。この構成によれば、発光装置が発した赤外光を指示体3が反射した反射光が、撮影部13の赤外線撮影画像に写る。描画処理部23は、赤外線撮影画像から反射光の像を抽出することによって、指示体3の入力を検出できる。このようにして検出される指示体3の反射光は、発光装置の発光パターンを反映する。このため、発光装置の発光パターンを、指示体3A、3Bとは異なる発光パターンとすることによって、赤外光を発しない指示体3と、指示体3Aと、指示体3Bとをプロジェクター1が識別できる。 The projector 1 may include a light emitting device that emits infrared light toward the vicinity of the screen SC. In this case, an object that reflects infrared light emitted by the light emitting device can be used as the indicator 3 . For example, a user's finger can be used as the indicator 3 . According to this configuration, the infrared light emitted by the light-emitting device is reflected by the pointer 3 and reflected in the infrared photographed image of the photographing unit 13 . The drawing processing unit 23 can detect the input of the pointer 3 by extracting the reflected light image from the infrared photographed image. The reflected light of the pointer 3 detected in this manner reflects the light emission pattern of the light emitting device. Therefore, by setting the light emission pattern of the light emitting device to a light emission pattern different from that of the indicators 3A and 3B, the projector 1 can distinguish between the indicators 3, 3A, and 3B that do not emit infrared light. can.

描画処理部23は、受付部22が検出した入力位置に基づいて、オブジェクトを生成する。オブジェクトは、投写部10によって投写される描画オブジェクトである。描画処理部23は、指示体3による入力が開始されてから入力が停止するまでの入力位置の軌跡を、受付部22から取得する。指示体3による入力の開始とは、例えば、指示体3の先端がスクリーンSCに接触したことを受付部22が検出したときを指す。指示体3による入力の停止とは、例えば、指示体3の先端がスクリーンSCから離れたことを受付部22が検出したときを指す。描画処理部23は、例えば、入力位置の軌跡に沿って曲線を形成する。この曲線がオブジェクトに相当する。描画処理部23は、オブジェクトの画像データを画像処理部11に出力する。画像処理部11は、描画処理部23から入力される画像データに基づき、投写画像Pの画像信号を生成して投写部10に出力する。 The drawing processing unit 23 generates an object based on the input position detected by the receiving unit 22 . An object is a drawing object projected by the projection unit 10 . The drawing processing unit 23 acquires from the receiving unit 22 the trajectory of the input position from the start of input by the pointer 3 until the input is stopped. The start of input by the pointer 3 refers to, for example, when the reception unit 22 detects that the tip of the pointer 3 has touched the screen SC. Stopping the input by the indicator 3 means, for example, when the receiving unit 22 detects that the tip of the indicator 3 has left the screen SC. The drawing processing unit 23 forms, for example, a curve along the trajectory of the input position. This curve corresponds to the object. The drawing processing unit 23 outputs image data of the object to the image processing unit 11 . The image processing section 11 generates an image signal of the projection image P based on the image data input from the drawing processing section 23 and outputs the image signal to the projection section 10 .

描画処理部23は、生成したオブジェクトが文字であるか否かを判定する。オブジェクトが文字である場合、描画処理部23は、文字入力を案内するガイド画像を形成する。描画処理部23は、ガイド画像の画像データを生成して画像処理部11に出力する。これにより、スクリーンSCに、文字入力のガイド画像が表示されるので、ユーザーが指示体3によって文字入力を行いやすくなる。描画処理部23が、オブジェクトが文字であるか否かを判定する処理には、例えば、公知のOCR(Optical Character Reading)技術を利用できる。 The drawing processing unit 23 determines whether the generated object is a character. When the object is a character, the drawing processing unit 23 forms a guide image that guides character input. The drawing processing unit 23 generates image data of the guide image and outputs the image data to the image processing unit 11 . As a result, a guide image for character input is displayed on the screen SC, which makes it easier for the user to input characters with the indicator 3 . For example, the well-known OCR (Optical Character Reading) technology can be used for the process of determining whether the object is a character by the drawing processing unit 23 .

投写制御部24は、投写部10を制御して、画像処理部11が生成する画像信号に基づく画像をスクリーンSCに投写させる。 The projection control unit 24 controls the projection unit 10 to project an image based on the image signal generated by the image processing unit 11 onto the screen SC.

画像処理部11は、例えば、集積回路により構成することができる。集積回路は、例えば、LSI(Large Scale Integration)で構成される。より具体的には、画像処理回路42は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等により構成される。PLDには、例えば、FPGA(Field-Programmable Gate Array)が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、プロセッサーと集積回路との組み合わせであってもよい。プロセッサーと集積回路との組み合わせは、マイクロコントローラー(MCU)、SoC、システムLSI、チップセットなどと呼ばれる。 The image processing unit 11 can be configured by, for example, an integrated circuit. The integrated circuit is configured by, for example, an LSI (Large Scale Integration). More specifically, the image processing circuit 42 is configured by an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or the like. PLDs include, for example, FPGAs (Field-Programmable Gate Arrays). Also, part of the configuration of the integrated circuit may include an analog circuit, or may be a combination of a processor and an integrated circuit. A combination of a processor and an integrated circuit is called a microcontroller (MCU), SoC, system LSI, chipset, or the like.

画像処理部11は、制御部20の制御に従って、投写画像Pを投写するための画像信号を生成する。画像処理部11は、フレームメモリー12に接続される。フレームメモリー12は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。画像処理部11は、制御部20から入力される画像データをフレームメモリー12に展開する。画像処理部11は、フレームメモリー12に展開した画像データに対して、画像処理を実行する。画像処理部11は、例えば、解像度変換処理、幾何補正処理、デジタルズーム処理、画像の色合いや輝度を調整する画像補正処理等を実行する。画像処理部11は、処理後の画像を表示するための画像信号を生成して、投写部10に出力する。投写部10は、画像処理部11から入力される画像信号に基づいて画像光PLを形成する。 The image processing section 11 generates an image signal for projecting the projection image P under the control of the control section 20 . The image processing section 11 is connected to the frame memory 12 . The frame memory 12 is configured by, for example, SDRAM (Synchronous Dynamic Random Access Memory). The image processing unit 11 develops image data input from the control unit 20 in the frame memory 12 . The image processing unit 11 executes image processing on the image data developed in the frame memory 12 . The image processing unit 11 executes, for example, resolution conversion processing, geometric correction processing, digital zoom processing, and image correction processing for adjusting the hue and brightness of an image. The image processing unit 11 generates an image signal for displaying the processed image, and outputs the image signal to the projection unit 10 . Projector 10 forms image light PL based on an image signal input from image processor 11 .

[1-2.プロジェクターの動作]
図3及び図4は、プロジェクター1の動作を示すフローチャートである。図5及び図6は、第1実施形態における投写画像Pの例を示す図である。これらの図を参照して、プロジェクター1の動作を説明する。
[1-2. Projector operation]
3 and 4 are flowcharts showing the operation of the projector 1. FIG. 5 and 6 are diagrams showing examples of the projection image P in the first embodiment. The operation of the projector 1 will be described with reference to these figures.

図3のステップS11~S17、及び、図4のステップS21~S26に示す動作は、制御部20により実行される。詳細には、ステップS11~S12、S17は受付部22により実行され、ステップS13は描画処理部23及び投写制御部24により実行され、ステップS14~S16は描画処理部23により実行される。 The operations shown in steps S11 to S17 in FIG. 3 and steps S21 to S26 in FIG. Specifically, steps S11 to S12 and S17 are executed by the reception unit 22, step S13 is executed by the drawing processing unit 23 and the projection control unit 24, and steps S14 to S16 are executed by the drawing processing unit 23.

ステップS11で、プロジェクター1は、指示体3による入力を待機する。プロジェクター1は、ステップS11で、指示体3による入力があるか否かを判定する。指示体3による入力がないと判定した場合(ステップS11;NO)、プロジェクター1はステップS11で所定時間、待機する。指示体3による入力があると判定した場合(ステップS11;YES)、プロジェクター1はステップS12に移行する。 In step S<b>11 , the projector 1 waits for input by the pointer 3 . The projector 1 determines whether or not there is an input from the pointer 3 in step S11. When it is determined that there is no input by the pointer 3 (step S11; NO), the projector 1 waits for a predetermined time in step S11. If it is determined that there is an input by the pointer 3 (step S11; YES), the projector 1 proceeds to step S12.

ステップS12で、プロジェクター1は、指示体3の入力位置を検出する。ステップS13で、プロジェクター1は、ステップS12で検出した入力位置に基づきオブジェクトを生成する。ステップS13で、さらに、プロジェクター1は、オブジェクトをスクリーンSCに表示する。 In step S<b>12 , the projector 1 detects the input position of the pointer 3 . At step S13, the projector 1 generates an object based on the input position detected at step S12. In step S13, the projector 1 also displays the object on the screen SC.

プロジェクター1は、ステップS14で、ステップS13で生成したオブジェクトが文字であるか否かを判定する。プロジェクター1は、オブジェクトが文字でないと判定した場合(ステップS14;NO)、後述するステップS17に移行する。プロジェクター1は、オブジェクトが文字であると判定した場合(ステップS14;YES)、ステップS15に移行する。 In step S14, the projector 1 determines whether the object generated in step S13 is a character. When the projector 1 determines that the object is not a character (step S14; NO), the process proceeds to step S17, which will be described later. When the projector 1 determines that the object is a character (step S14; YES), the process proceeds to step S15.

図5には、矩形のスクリーンSCに矩形の投写画像Pをプロジェクター1が投写する例を示す。この例において、プロジェクター1は、投写画像Pが投写される範囲にX-Y直交座標系を設定する。この座標系は、投写画像Pの左上隅を原点とし、右下向きのX軸及び下向きのY軸を含む。 FIG. 5 shows an example in which the projector 1 projects a rectangular projection image P onto a rectangular screen SC. In this example, the projector 1 sets an XY orthogonal coordinate system in the range in which the projection image P is projected. This coordinate system has an origin at the upper left corner of the projected image P, and includes an X-axis pointing to the lower right and a Y-axis pointing downward.

図5に示す例では、ユーザーが指示体3Aによって入力を行った場合の入力位置に基づいて、第1オブジェクト101が表示されている。図3の第1オブジェクト101の形状は、文字「A」に類似する形状である。この例では、プロジェクター1は、第1オブジェクト101が文字であると判定する。 In the example shown in FIG. 5, the first object 101 is displayed based on the input position when the user performs input using the indicator 3A. The shape of the first object 101 in FIG. 3 is a shape similar to the letter "A". In this example, the projector 1 determines that the first object 101 is a character.

ステップS15で、プロジェクター1は、スクリーンSCにガイド画像を表示中であるか否かを判定する。ガイド画像を既に表示中である場合(ステップS15;YES)、プロジェクター1は、後述するステップS17に移行する。ガイド画像を表示中でない場合(ステップS15;NO)、プロジェクター1は、ステップS16に移行してガイド画像表示処理を実行する。ガイド画像表示処理の後、プロジェクター1はステップS17に移行する。 In step S15, the projector 1 determines whether or not the guide image is being displayed on the screen SC. If the guide image is already being displayed (step S15; YES), the projector 1 proceeds to step S17, which will be described later. If the guide image is not being displayed (step S15; NO), the projector 1 proceeds to step S16 and executes guide image display processing. After the guide image display process, the projector 1 proceeds to step S17.

ステップS17で、プロジェクター1は、指示体3の入力に対する処理を終了するか否かを判定する。例えば、プロジェクター1は、指示体3や画像入力部14の入力によって処理終了が指示された場合に、指示体3の入力に対する処理を終了する。 In step S<b>17 , the projector 1 determines whether or not to end processing for the input of the pointer 3 . For example, when the end of processing is instructed by the input of the pointer 3 or the image input unit 14, the projector 1 ends the processing for the input of the pointer 3. FIG.

指示体3の入力に対する処理を終了しない場合(ステップS17;NO)、プロジェクター1はステップS11に戻る。指示体3の入力に対する処理を終了する場合(ステップS17;YES)、プロジェクター1は、本処理を終了する。 If the process for the input of the pointer 3 is not finished (step S17; NO), the projector 1 returns to step S11. When ending the process for the input of the pointer 3 (step S17; YES), the projector 1 ends this process.

図4には、ステップS16のガイド画像表示処理を詳細に示す。図4のステップS21~S26は描画処理部23により実行される。
ステップS21で、プロジェクター1は、文字であると判定したオブジェクトを含む第1領域を特定する。続いて、ステップS22で、プロジェクター1は、第1領域の位置およびサイズを特定する。第1領域は、例えば、X軸におけるオブジェクトの端、及び、Y軸におけるオブジェクトの端を含む矩形の領域である。第1領域の位置は、例えば、第1領域の中心のX-Y座標である。第1領域のサイズは、例えば、X軸における第1領域の長さとY軸における第1領域の長さである。
FIG. 4 shows in detail the guide image display process of step S16. Steps S21 to S26 in FIG. 4 are executed by the drawing processing unit 23. FIG.
In step S21, the projector 1 identifies the first area containing the object determined to be a character. Subsequently, in step S22, the projector 1 identifies the position and size of the first area. The first area is, for example, a rectangular area including the edge of the object on the X axis and the edge of the object on the Y axis. The position of the first area is, for example, the XY coordinates of the center of the first area. The size of the first region is, for example, the length of the first region on the X-axis and the length of the first region on the Y-axis.

図5には、第1オブジェクト101に対応する第1領域131を示す。第1領域131は、第1オブジェクト101を含む矩形の領域である。プロジェクター1は、第1領域131のサイズとして、幅WT1、及び、高さHT1を特定する。幅WT1はX軸におけるサイズに相当し、高さHT1はY軸におけるサイズに相当する。 FIG. 5 shows the first area 131 corresponding to the first object 101 . A first area 131 is a rectangular area that includes the first object 101 . The projector 1 specifies the width WT1 and the height HT1 as the size of the first area 131 . The width WT1 corresponds to the size on the X-axis and the height HT1 corresponds to the size on the Y-axis.

ステップS23で、プロジェクター1は、ガイド画像を構成する罫線の間隔を算出する。本実施形態で、プロジェクター1は、ガイド画像として、水平方向に延びる直線からなる水平の罫線、及び、垂直方向に延びる直線からなる垂直の罫線を表示する。水平方向はX軸と平行であり、垂直方向はY軸と平行である。このガイド画像は、ユーザーが指示体3によって複数の文字を描く際に、水平方向と垂直方向における文字の配列、及び、水平方向と垂直方向における文字のサイズを揃えることを助ける。 In step S23, the projector 1 calculates the intervals between the ruled lines forming the guide image. In this embodiment, the projector 1 displays horizontal ruled lines made of straight lines extending in the horizontal direction and vertical ruled lines made of straight lines extending in the vertical direction as guide images. The horizontal direction is parallel to the X-axis and the vertical direction is parallel to the Y-axis. When the user draws a plurality of characters with the pointer 3, the guide image helps the user to align the characters in the horizontal and vertical directions and the sizes of the characters in the horizontal and vertical directions.

図6は、第1オブジェクト101に基づいてガイド画像201を表示した状態を示す。ガイド画像201は、複数の水平の罫線211、及び、複数の垂直の罫線212を含む。ガイド画像201は、第1ガイド画像の一例に対応する。ガイド画像201は、ユーザーが指示体3によって文字を入力する場合の入力位置を案内する画像であり、文字の入力位置の目安を示す画像である。 FIG. 6 shows a state in which the guide image 201 is displayed based on the first object 101. As shown in FIG. The guide image 201 includes multiple horizontal ruled lines 211 and multiple vertical ruled lines 212 . A guide image 201 corresponds to an example of a first guide image. The guide image 201 is an image that guides the input position when the user inputs a character using the indicator 3, and is an image that indicates a rough indication of the character input position.

プロジェクター1は、ステップS23で、ガイド画像が含む複数の水平の罫線の間隔と、複数の垂直の罫線の間隔とを算出する。例えば、図6の水平の罫線211の間隔である罫線縦間隔HL1は、第1オブジェクト101の高さHT1から算出される。罫線縦間隔HL1は、高さHT1に所定のマージンを加えた長さであってもよいし、高さHT1と等しくてもよい。垂直の罫線212の間隔である罫線横間隔WL1は、第1オブジェクト101の幅WT1から算出される。罫線横間隔WL1は、幅WT1に所定のマージンを加えた長さであってもよいし、幅WT1と等しくてもよい。 In step S23, the projector 1 calculates the intervals between the horizontal ruled lines and the intervals between the vertical ruled lines included in the guide image. For example, the vertical ruled line spacing HL1, which is the spacing between horizontal ruled lines 211 in FIG. 6, is calculated from the height HT1 of the first object 101 . The ruled line vertical interval HL1 may have a length obtained by adding a predetermined margin to the height HT1, or may be equal to the height HT1. The horizontal ruled line spacing WL1, which is the spacing between the vertical ruled lines 212, is calculated from the width WT1 of the first object 101. FIG. The ruled line horizontal interval WL1 may have a length obtained by adding a predetermined margin to the width WT1, or may be equal to the width WT1.

ステップS24で、プロジェクター1は、ステップS23で算出した間隔に従って、水平の罫線を配置する。詳細には、プロジェクター1は、第1領域の上端または下端に重なる1本目の水平の罫線を配置する。次に、プロジェクター1は、1本目の水平の罫線を基準として、ステップS23で算出した間隔で、第1領域の上方、及び、下方に、水平の罫線を配置する。プロジェクター1は、投写画像Pの上端より外側、及び、投写画像Pの下端より外側には罫線を配置しない。 In step S24, the projector 1 arranges horizontal ruled lines according to the intervals calculated in step S23. Specifically, the projector 1 arranges a first horizontal ruled line that overlaps the top end or the bottom end of the first area. Next, using the first horizontal ruled line as a reference, the projector 1 arranges horizontal ruled lines above and below the first area at the intervals calculated in step S23. The projector 1 does not arrange ruled lines outside the upper end of the projected image P and outside the lower end of the projected image P.

続いて、ステップS25で、プロジェクター1は、ステップS23で算出した間隔に従って、垂直の罫線を配置する。詳細には、プロジェクター1は、第1領域の右端または左端に重なる1本目の垂直の罫線を配置する。次に、プロジェクター1は、1本目の垂直の罫線を基準として、ステップS23で算出した間隔で、第1領域の右方、及び、左方に、垂直の罫線を配置する。プロジェクター1は、投写画像Pの右端より外側、及び、投写画像Pの左端より外側には罫線を配置しない。 Subsequently, in step S25, the projector 1 arranges vertical ruled lines according to the intervals calculated in step S23. Specifically, the projector 1 arranges a first vertical ruled line that overlaps the right end or left end of the first area. Next, using the first vertical ruled line as a reference, the projector 1 arranges vertical ruled lines on the right and left sides of the first area at the intervals calculated in step S23. The projector 1 does not arrange ruled lines outside the right edge of the projection image P and outside the left edge of the projection image P. As shown in FIG.

なお、1本目の水平の罫線は、第1領域の上端または下端から所定の距離を空けて配置されてもよい。同様に、1本目の垂直の罫線は、第1領域の右端または左端から所定の距離を空けて配置されてもよい。 Note that the first horizontal ruled line may be arranged at a predetermined distance from the top end or bottom end of the first area. Similarly, the first vertical ruled line may be spaced a predetermined distance from the right or left edge of the first region.

プロジェクター1は、ステップS26で、ステップS24~S25で配置した罫線を含むガイド画像を生成する。プロジェクター1は、ガイド画像をスクリーンSCに表示し、図4のステップS17に移行する。 In step S26, the projector 1 generates a guide image including the ruled lines laid out in steps S24 and S25. The projector 1 displays the guide image on the screen SC, and proceeds to step S17 in FIG.

図6のガイド画像201に含まれる複数の水平の罫線211は、第1領域131の上端に重なる水平の罫線211、及び、第1領域131の下端に重なる水平の罫線211を含む。複数の水平の罫線211は、互いに罫線縦間隔HL1を空けて、投写画像Pに配置される。また、ガイド画像201は、第1領域131の右端に重なる垂直の罫線212、及び、第1領域131の左端に重なる垂直の罫線212を含む。複数の垂直の罫線212は、互いに罫線横間隔WL1を空けて投写画像Pに配置されている。 A plurality of horizontal ruled lines 211 included in the guide image 201 of FIG. A plurality of horizontal ruled lines 211 are arranged in the projection image P with a ruled line vertical interval HL1 therebetween. The guide image 201 also includes a vertical ruled line 212 that overlaps the right edge of the first area 131 and a vertical ruled line 212 that overlaps the left edge of the first area 131 . A plurality of vertical ruled lines 212 are arranged on the projection image P with a horizontal ruled line interval WL1 from each other.

[1-3.作用]
以上説明したように、本開示の第1実施形態に係る表示方法は、スクリーンSCに対する入力を受け付けることと、入力が行われた入力位置を取得することと、入力位置に基づいて第1オブジェクト101をスクリーンSC上に表示することと、を含む。また、第1オブジェクト101が文字であるかを判定することを含む。また、第1オブジェクト101が文字である場合に、第1オブジェクト101が表示された第1領域131に基づいて、スクリーンSCに、入力に関連する入力位置を案内する第1ガイド画像を表示することと、を含む。
[1-3. action]
As described above, the display method according to the first embodiment of the present disclosure accepts an input to the screen SC, acquires the input position where the input is performed, and displays the first object 101 based on the input position. on the screen SC. It also includes determining whether the first object 101 is a character. Further, when the first object 101 is a character, a first guide image for guiding an input position related to input is displayed on the screen SC based on the first area 131 where the first object 101 is displayed. and including.

第1実施形態に係るプロジェクター1は、スクリーンSCに表示を行う投写部10と、スクリーンSCに対する入力を受け付ける受付部22と、を備える。また、プロジェクター1は、入力が行われた入力位置を取得して、入力位置に基づいて第1オブジェクト101を投写部10に表示させる制御部20を備える。制御部20は、第1オブジェクト101が文字であるかを判定することと、第1オブジェクト101が文字である場合に、第1オブジェクト101が表示された第1領域131に基づいて、入力に関連する入力位置を案内するガイド画像201を投写部10に表示させることと、を含む処理を実行する。 The projector 1 according to the first embodiment includes a projection section 10 that displays on the screen SC, and a reception section 22 that receives input to the screen SC. The projector 1 also includes a control unit 20 that acquires an input position where an input has been made and causes the projection unit 10 to display the first object 101 based on the input position. The control unit 20 determines whether the first object 101 is a character, and if the first object 101 is a character, the control unit 20 determines whether the first object 101 is a character, based on the first area 131 in which the first object 101 is displayed. and causing the projection unit 10 to display a guide image 201 for guiding the input position to be input.

これにより、指示体3によって文字が入力された場合に、文字が入力された第1領域131に基づいてガイド画像201を表示する。プロジェクター1は、例えば、1文字のみが入力された場合にもガイド画像201を表示できる。このため、文字の入力が開始されてから速やかにガイド画像201を表示できるので、ユーザーが指示体3によって文字入力を行う場合の負担を軽減し、操作性の向上を図ることができる。 Thus, when characters are input by the pointer 3, the guide image 201 is displayed based on the first area 131 in which the characters are input. The projector 1 can display the guide image 201 even when only one character is input, for example. Therefore, since the guide image 201 can be displayed immediately after the character input is started, the user's burden when inputting characters with the pointer 3 can be reduced, and the operability can be improved.

例えば、図6に示したように、指示体3の入力位置に基づき第1オブジェクト101が表示された後に、ユーザーが文字を続けて入力する場合、ユーザーは、ガイド画像201に従って、文字が水平方向に並ぶように入力を行える。この場合、ユーザーが文字を読みやすく並べて入力する場合の負担を軽減することができ、容易に、読みやすい文字列を指示体3によって入力できる。 For example, as shown in FIG. 6, when the user continues to input characters after the first object 101 is displayed based on the input position of the indicator 3, the user follows the guide image 201 to move the characters horizontally. You can input so as to line up with In this case, it is possible to reduce the user's burden when inputting characters arranged in an easy-to-read manner, so that an easy-to-read character string can be easily input by the indicator 3 .

[2.第2実施形態]
図7は、第2実施形態における投写画像Pの例を示す図である。図8は、第2実施形態におけるプロジェクター1の動作を示すフローチャートである。
第2実施形態において、プロジェクター1の構成は、第1実施形態で説明した構成と相違ないので、ここでは図示及び説明を省略する。
[2. Second Embodiment]
FIG. 7 is a diagram showing an example of the projection image P in the second embodiment. FIG. 8 is a flow chart showing the operation of the projector 1 in the second embodiment.
In the second embodiment, the configuration of the projector 1 is the same as the configuration described in the first embodiment, so illustration and description are omitted here.

第2実施形態では、図7に示すように、投写画像Pに第2オブジェクト102が表示されている状態で、指示体3の入力に基づき第1オブジェクト101を表示する例を説明する。第2オブジェクト102は、第1オブジェクト101よりも前に、指示体3の入力に基づいてプロジェクター1が表示するオブジェクトである。 In the second embodiment, an example in which the first object 101 is displayed based on the input of the pointer 3 while the second object 102 is displayed in the projection image P as shown in FIG. 7 will be described. The second object 102 is an object displayed by the projector 1 based on the input of the pointer 3 before the first object 101 .

プロジェクター1は、指示体3の入力に基づいて第1オブジェクト101を生成し、第1オブジェクト101を含む投写画像Pを表示する。この場合、投写画像Pは、既に第2オブジェクト102を含む。 The projector 1 generates the first object 101 based on the input of the pointer 3 and displays the projection image P including the first object 101 . In this case, the projected image P already contains the second object 102 .

プロジェクター1は、第1オブジェクト101が文字であると判定した場合に、ガイド画像201を表示する。ガイド画像201は、第2オブジェクト102が表示されている第2領域132以外の領域に表示される。詳細には、プロジェクター1は、投写画像Pにおいて、第2オブジェクト102に重なる領域を第2領域132とし、第2領域132以外の領域を第3領域133とする。プロジェクター1は、第3領域133に、ガイド画像201を表示する。第3領域133に表示される水平の罫線211の間隔、及び、垂直の罫線212の間隔は、第1実施形態と同様に定められる。 The projector 1 displays the guide image 201 when determining that the first object 101 is a character. The guide image 201 is displayed in an area other than the second area 132 where the second object 102 is displayed. Specifically, the projector 1 sets the area overlapping the second object 102 as the second area 132 and the area other than the second area 132 as the third area 133 in the projected image P. The projector 1 displays the guide image 201 on the third area 133 . The interval between the horizontal ruled lines 211 and the interval between the vertical ruled lines 212 displayed in the third area 133 are determined in the same manner as in the first embodiment.

第2実施形態におけるプロジェクター1の動作は、図8に示す処理を除き、第1実施形態と同様である。図8の動作は、図6に示した動作に代えてプロジェクター1が実行する。図8のステップS21~S23、及び、ステップS31~S36の動作は、描画処理部23により実行される。 The operation of the projector 1 according to the second embodiment is the same as that according to the first embodiment except for the processing shown in FIG. The operation of FIG. 8 is executed by the projector 1 in place of the operation shown in FIG. The operations of steps S21 to S23 and steps S31 to S36 in FIG.

ステップS21~S23の処理は、第1実施形態と共通である。ステップS31で、プロジェクター1は、既存のオブジェクトを検出する。例えば、プロジェクター1は、図7に示した第2オブジェクト102を検出する。ステップS32で、プロジェクター1は、ステップS31で検出したオブジェクトを含む第2領域を判定する。第2領域は、ステップS31で検出したオブジェクトを含む領域である。例えば、第2領域は、第2オブジェクト102の左端のX座標、及び、第2オブジェクト102の上端のY座標を基準とし、基準よりX座標またはY座標が大きい範囲を含む。第2領域は、基準のX座標及びY座標を含んでもよい。 The processes of steps S21 to S23 are common to the first embodiment. In step S31, the projector 1 detects existing objects. For example, the projector 1 detects the second object 102 shown in FIG. In step S32, the projector 1 determines the second area including the object detected in step S31. The second area is an area containing the object detected in step S31. For example, the second area includes a range in which the X-coordinate of the left end of the second object 102 and the Y-coordinate of the top end of the second object 102 are used as a reference, and the X-coordinate or the Y-coordinate is larger than the reference. The second region may include reference X and Y coordinates.

図7の例で、第2領域132は、第2オブジェクト102の左端、及び、第2オブジェクト102の左端よりもX座標が大きい範囲を含む。また、第2領域132は、第2オブジェクト102の上端、及び、第2オブジェクト102の上端よりもY座標が大きい範囲を含む。これは一例であり、例えば、第2領域132は、第2オブジェクト102の上端、下端、左端、及び右端で囲まれる矩形の領域であってもよい。また、第2領域132は、第2オブジェクト102の外縁で囲まれ、第2オブジェクト102に対応する形状の領域であってもよい。 In the example of FIG. 7 , the second area 132 includes the left edge of the second object 102 and a range of X coordinates larger than the left edge of the second object 102 . Also, the second area 132 includes the upper end of the second object 102 and a range in which the Y coordinate is larger than the upper end of the second object 102 . This is an example, and for example, the second area 132 may be a rectangular area surrounded by the top edge, bottom edge, left edge, and right edge of the second object 102 . Also, the second area 132 may be an area surrounded by the outer edge of the second object 102 and having a shape corresponding to the second object 102 .

ステップS33で、プロジェクター1は、第2領域を避けて第3領域を設定する。図7の例で、第3領域133は、投写画像Pにおいて第2領域132以外の全ての部分である。 In step S33, the projector 1 avoids the second area and sets the third area. In the example of FIG. 7, the third area 133 is the entire portion of the projection image P other than the second area 132 .

ステップS34で、プロジェクター1は、第3領域に水平の罫線を配置する。また、ステップS35で、プロジェクター1は、第3領域に垂直の罫線を配置する。ステップS34、S35の動作は、図4のステップS24、S25と同様に、ステップS23で算出された罫線の間隔に従って行われる。 In step S34, the projector 1 arranges horizontal ruled lines in the third area. Also, in step S35, the projector 1 arranges a vertical ruled line in the third area. The operations of steps S34 and S35 are performed according to the interval between the ruled lines calculated in step S23, as in steps S24 and S25 of FIG.

プロジェクター1は、ステップS36で、ステップS34~S35で配置した罫線を含むガイド画像を生成する。プロジェクター1は、ガイド画像をスクリーンSCに表示し、図4のステップS17に移行する。 In step S36, the projector 1 generates a guide image including the ruled lines laid out in steps S34 and S35. The projector 1 displays the guide image on the screen SC, and proceeds to step S17 in FIG.

このように、プロジェクター1による表示方法は、第1領域131とは異なる第2領域132に第2オブジェクト102を表示した後に、第1オブジェクト101を表示した場合、ガイド画像201を、表示面において第2領域132を除く第3領域133に描画すること、をさらに含む。これにより、ユーザーが指示体3により文字を描画する場合に、既に表示されている第2オブジェクト102を避けるように文字を入力するためのガイド画像201が、スクリーンSCに表示される。このため、ユーザーが指示体3によって文字入力を行う場合の負担を軽減し、操作性の向上を図ることができる。第2実施形態に示した表示方法において、プロジェクター1は、例えば、1文字のみが入力された場合にもガイド画像201を表示できる。このため、文字の入力が開始されてから速やかにガイド画像を表示できるという利点がある。 As described above, the display method by the projector 1 is such that when the first object 101 is displayed after the second object 102 is displayed in the second area 132 different from the first area 131, the guide image 201 is displayed in the second area on the display surface. and drawing in a third region 133 excluding the second region 132 . As a result, when the user draws a character with the indicator 3, the guide image 201 for inputting the character avoiding the already displayed second object 102 is displayed on the screen SC. For this reason, it is possible to reduce the burden on the user when performing character input using the indicator 3, and improve operability. In the display method shown in the second embodiment, the projector 1 can display the guide image 201 even when only one character is input, for example. Therefore, there is an advantage that the guide image can be displayed immediately after the character input is started.

[3.第3実施形態]
図9及び図10は、第3実施形態における投写画像Pの例を示す図である。図11及び図12は、第3実施形態におけるプロジェクター1の動作を示すフローチャートである。
第3実施形態において、プロジェクター1の構成は、第1実施形態で説明した構成と相違ないので、ここでは図示及び説明を省略する。
[3. Third Embodiment]
9 and 10 are diagrams showing examples of the projection image P in the third embodiment. 11 and 12 are flowcharts showing the operation of the projector 1 according to the third embodiment.
In the third embodiment, the configuration of the projector 1 is the same as the configuration described in the first embodiment, so illustration and description are omitted here.

第3実施形態では、図9に示すように、指示体3Aと指示体3Bのそれぞれの入力に基づいて、第1オブジェクト101と第3オブジェクト103を表示する例を説明する。プロジェクター1は、指示体3Aの入力に基づき第1オブジェクト101を表示し、指示体3Bの入力に基づき第3オブジェクト103を表示する。第3実施形態において、指示体3Aは第1指示体の一例に対応し、指示体3Bは第2指示体の一例に対応する。 In the third embodiment, as shown in FIG. 9, an example will be described in which the first object 101 and the third object 103 are displayed based on the respective inputs of the indicator 3A and the indicator 3B. The projector 1 displays the first object 101 based on the input of the indicator 3A, and displays the third object 103 based on the input of the indicator 3B. In the third embodiment, the indicator 3A corresponds to an example of the first indicator, and the indicator 3B corresponds to an example of the second indicator.

この例では、プロジェクター1が、指示体3Aの入力に基づいて第1オブジェクト101を表示した後に、指示体3Bの入力に基づいて第3オブジェクト103を表示する。第1オブジェクト101を表示した時点では、プロジェクター1は、第1実施形態で説明したように、第1オブジェクト101が表示された第1領域131に応じて、ガイド画像201を表示する。 In this example, the projector 1 displays the third object 103 based on the input of the pointer 3B after displaying the first object 101 based on the input of the pointer 3A. When the first object 101 is displayed, the projector 1 displays the guide image 201 according to the first area 131 where the first object 101 is displayed, as described in the first embodiment.

プロジェクター1は、指示体3Bの入力を受け付けた場合、第3オブジェクト103を表示する。プロジェクター1は、指示体3Bの入力に基づき第3オブジェクト103を表示した場合、第3オブジェクト103に応じてガイド画像203を表示する。ガイド画像203は、指示体3Bによる入力位置を案内する画像である。ガイド画像203は、第2ガイド画像の一例に対応する。 The projector 1 displays the third object 103 when receiving the input of the pointer 3B. The projector 1 displays the guide image 203 according to the third object 103 when the third object 103 is displayed based on the input of the indicator 3B. The guide image 203 is an image that guides the input position by the pointer 3B. A guide image 203 corresponds to an example of a second guide image.

図10に、ガイド画像203が表示された例を示す。図10のガイド画像203は、水平の罫線231、及び、垂直の罫線232を含む。ガイド画像203に含まれる複数の水平の罫線231の間隔は、第3オブジェクト103が表示された第4領域134の高さHT2に基づき決定される。また、ガイド画像203に含まれる複数の垂直の罫線232の間隔は、第4領域134の幅WT2に基づき決定される。 FIG. 10 shows an example in which the guide image 203 is displayed. The guide image 203 in FIG. 10 includes horizontal ruled lines 231 and vertical ruled lines 232 . The intervals between the horizontal ruled lines 231 included in the guide image 203 are determined based on the height HT2 of the fourth area 134 where the third object 103 is displayed. Also, the intervals between the plurality of vertical ruled lines 232 included in the guide image 203 are determined based on the width WT2 of the fourth area 134 .

プロジェクター1は、投写画像Pにおいてガイド画像201とガイド画像203とを重複させないための処理を行う。まず、第1の例として、プロジェクター1は、指示体3Aによる入力が終了した後、或いは、指示体3Aによる入力が行われていない間に、第3オブジェクト103を表示する場合、ガイド画像201を消去してガイド画像203を表示する。 The projector 1 performs processing to prevent the guide image 201 and the guide image 203 from overlapping in the projection image P. FIG. First, as a first example, when the projector 1 displays the third object 103 after the input by the indicator 3A is completed or while the input by the indicator 3A is not being performed, the guide image 201 is displayed. It is erased and the guide image 203 is displayed.

すなわち、プロジェクター1は、指示体3Aの入力に応じて第1オブジェクト101を表示する際に、ガイド画像201を表示する。さらに、指示体3Bの入力に応じて第3オブジェクト103を表示する際に、ガイド画像201の表示を停止して、第3オブジェクト103に応じてガイド画像203を表示する。この一連の動作を、図11及び図12に示す。 That is, the projector 1 displays the guide image 201 when displaying the first object 101 according to the input of the indicator 3A. Furthermore, when the third object 103 is displayed according to the input of the indicator 3B, the display of the guide image 201 is stopped and the guide image 203 is displayed according to the third object 103. FIG. This series of operations is shown in FIGS. 11 and 12. FIG.

図11及び図12に示す動作は、図3及び図4に示した動作に代えて、プロジェクター1が実行する。以下の説明において、第1実施形態と共通する処理には同じステップ番号を付して説明を省略する。図11のステップS41は受付部22により実行され、ステップS42~S43及び図12のステップS51~S59は描画処理部23により実行される。ステップS60は描画処理部23及び投写制御部24により実行される。 The operations shown in FIGS. 11 and 12 are executed by the projector 1 instead of the operations shown in FIGS. In the following description, the same step numbers are given to the processes that are common to the first embodiment, and description thereof is omitted. Step S41 in FIG. 11 is executed by the reception unit 22, and steps S42 to S43 and steps S51 to S59 in FIG. Step S<b>60 is executed by the drawing processing section 23 and the projection control section 24 .

プロジェクター1は、ステップS11~S12で指示体3の入力を受け付けて、入力位置を検出する。ここで、プロジェクター1は、ステップS41で、指示体を判別する。プロジェクター1は、ステップS11で検出した指示体3の入力が、指示体3Aによる入力か、指示体3Bによる入力かを判別する。その後、プロジェクター1はステップS13に移行する。 The projector 1 receives the input of the pointer 3 and detects the input position in steps S11 and S12. Here, the projector 1 determines the pointer in step S41. The projector 1 determines whether the input from the pointer 3 detected in step S11 is the input from the pointer 3A or the input from the pointer 3B. After that, the projector 1 proceeds to step S13.

プロジェクター1は、ステップS15で、ガイド画像を表示中であると判別した場合(ステップS15;YES)、ステップS42に移行する。ステップS42で、プロジェクター1は、表示中のガイド画像が、同一の指示体3に対応するガイド画像であるか否かを判別する。例えば、プロジェクター1は、ステップS41で、受付部22が受け付けた入力が指示体3Aによる入力であると判別した場合、ステップS42では、表示中のガイド画像が指示体3Aの入力により表示したオブジェクトに対応するガイド画像か否かを判別する。また、例えば、プロジェクター1は、ステップS41で、受付部22が受け付けた入力が指示体3Bによる入力であると判別した場合、ステップS42で、表示中のガイド画像が指示体3Bの入力により表示したオブジェクトに対応するガイド画像か否かを判別する。 When the projector 1 determines in step S15 that the guide image is being displayed (step S15; YES), the process proceeds to step S42. In step S<b>42 , the projector 1 determines whether or not the guide images being displayed are guide images corresponding to the same pointer 3 . For example, when the projector 1 determines in step S41 that the input received by the receiving unit 22 is the input by the indicator 3A, in step S42, the guide image being displayed becomes the object displayed by the input by the indicator 3A. It is determined whether or not it is a corresponding guide image. Further, for example, when the projector 1 determines in step S41 that the input received by the receiving unit 22 is input by the indicator 3B, in step S42, the guide image being displayed is displayed by the input by the indicator 3B. It is determined whether or not the guide image corresponds to an object.

プロジェクター1は、表示中のガイド画像が、同一の指示体3に対応するガイド画像であると判別した場合(ステップS42;YES)、ステップS17に移行する。 When the projector 1 determines that the guide image being displayed is the guide image corresponding to the same pointer 3 (step S42; YES), the process proceeds to step S17.

プロジェクター1は、表示中のガイド画像が同一の指示体3に対応するガイド画像でないと判別した場合(ステップS42;NO)、ステップS43に移行する。この場合は、例えば、指示体3Aの入力に応じて描画された第1オブジェクト101に対応して、ガイド画像201を表示中に、指示体3Bによる入力を受け付けた場合に該当する。 When the projector 1 determines that the guide image being displayed is not the guide image corresponding to the same pointer 3 (step S42; NO), the process proceeds to step S43. This case corresponds to, for example, a case where an input by the indicator 3B is received while the guide image 201 is being displayed corresponding to the first object 101 drawn according to the input by the indicator 3A.

ステップS43で、プロジェクター1は、ガイド画像更新処理を実行する。ガイド画像更新処理の詳細を、図12に示す。 In step S43, the projector 1 executes guide image update processing. Details of the guide image update process are shown in FIG.

ステップS51で、プロジェクター1は、表示中のガイド画像を消去する。具体的には、プロジェクター1は、画像処理部11がフレームメモリー12に展開している画像からガイド画像を削除させる。 In step S51, the projector 1 erases the guide image being displayed. Specifically, the projector 1 deletes the guide image from the image developed in the frame memory 12 by the image processing unit 11 .

ステップS52で、プロジェクター1は、ステップS13で表示したオブジェクトに対応する領域を特定する。例えば、図10の例では、ステップS13で第3オブジェクト103が表示される。プロジェクター1は、ステップS52で、第3オブジェクト103に対応する第4領域134を特定する。続いて、ステップS53で、プロジェクター1は、第4領域の位置およびサイズを特定する。 In step S52, the projector 1 identifies the area corresponding to the object displayed in step S13. For example, in the example of FIG. 10, the third object 103 is displayed in step S13. The projector 1 specifies the fourth area 134 corresponding to the third object 103 in step S52. Subsequently, in step S53, the projector 1 identifies the position and size of the fourth area.

第4領域は、例えば、X軸における第3オブジェクト103の端、及び、Y軸における第3オブジェクト103の端を含む矩形の領域である。第4領域の位置は、例えば、第4領域の中心のX-Y座標である。第4領域のサイズは、例えば、X軸における第4領域の長さとY軸における第4領域の長さである。 The fourth area is, for example, a rectangular area including the edge of the third object 103 on the X axis and the edge of the third object 103 on the Y axis. The position of the fourth area is, for example, the XY coordinates of the center of the fourth area. The size of the fourth area is, for example, the length of the fourth area on the X axis and the length of the fourth area on the Y axis.

図10の第4領域134は、第3オブジェクト103を含む矩形の領域である。プロジェクター1は、第4領域134のサイズとして、幅WT2、及び、高さHT2を特定する。幅WT2はX軸におけるサイズに相当し、高さHT2はY軸におけるサイズに相当する。 A fourth area 134 in FIG. 10 is a rectangular area including the third object 103 . The projector 1 specifies the width WT2 and the height HT2 as the size of the fourth area 134 . The width WT2 corresponds to the size on the X-axis and the height HT2 corresponds to the size on the Y-axis.

ステップS54で、プロジェクター1は、ガイド画像を構成する罫線の間隔を算出する。本実施形態で、プロジェクター1は、ガイド画像として、水平方向に延びる直線からなる水平の罫線、及び、垂直方向に延びる直線からなる垂直の罫線を表示する。水平方向はX軸と平行であり、垂直方向はY軸と平行である。このガイド画像は、ユーザーが指示体3によって複数の文字を描く際に、水平方向と垂直方向における文字の配列、及び、水平方向と垂直方向における文字のサイズを揃えることを助ける。 In step S54, the projector 1 calculates the interval between the ruled lines forming the guide image. In this embodiment, the projector 1 displays horizontal ruled lines made of straight lines extending in the horizontal direction and vertical ruled lines made of straight lines extending in the vertical direction as guide images. The horizontal direction is parallel to the X-axis and the vertical direction is parallel to the Y-axis. When the user draws a plurality of characters with the pointer 3, the guide image helps the user to align the characters in the horizontal and vertical directions and the sizes of the characters in the horizontal and vertical directions.

プロジェクター1は、ステップS54で、ガイド画像が含む複数の水平の罫線の間隔と、複数の垂直の罫線の間隔とを算出する。例えば、図10の水平の罫線231の間隔は、第3オブジェクト103の高さHT2から算出される。この間隔は、高さHT2に所定のマージンを加えた長さであってもよいし、高さHT2と等しくてもよい。垂直の罫線232の間隔は、第3オブジェクト103の幅WT2から算出される。この間隔は、幅WT2に所定のマージンを加えた長さであってもよいし、幅WT2と等しくてもよい。 In step S54, the projector 1 calculates the intervals between the horizontal ruled lines and the intervals between the vertical ruled lines included in the guide image. For example, the interval between horizontal ruled lines 231 in FIG. 10 is calculated from the height HT2 of the third object 103 . This interval may have a length equal to the height HT2 plus a predetermined margin, or may be equal to the height HT2. The spacing of the vertical ruled lines 232 is calculated from the width WT2 of the third object 103 . This interval may be the width WT2 plus a predetermined margin, or may be equal to the width WT2.

ステップS55で、プロジェクター1は、既存のオブジェクトを検出する。例えば、プロジェクター1は、図10に示した第1オブジェクト101を検出する。ステップS56で、プロジェクター1は、ステップS55で検出したオブジェクトを含む第3領域を判定する。第3領域は、ステップS55で検出したオブジェクトを含む領域である。 In step S55, the projector 1 detects existing objects. For example, the projector 1 detects the first object 101 shown in FIG. 10 . In step S56, the projector 1 determines the third area including the object detected in step S55. The third area is an area containing the object detected in step S55.

具体的には、第3領域は、既存のオブジェクトの左端のX座標、及び、既存のオブジェクトの上端のY座標を基準とし、基準よりX座標またはY座標が大きい範囲を含む。第3領域は、基準のX座標及びY座標を含んでもよい。 Specifically, the third area includes a range in which the X-coordinate of the left end of the existing object and the Y-coordinate of the top end of the existing object are used as references, and the X-coordinate or Y-coordinate is larger than the reference. The third region may include reference X and Y coordinates.

図10の例で、第3領域133は、第1オブジェクト101の左端、及び、第1オブジェクト101の左端よりもX座標が大きい範囲を含む。また、第3領域133は、第1オブジェクト101の上端、及び、第2オブジェクト102の上端よりもY座標が大きい範囲を含む。これは一例であり、例えば、第3領域133は、第1オブジェクト101の上端、下端、左端、及び右端で囲まれる矩形の領域、すなわち第1領域131と同一であってもよい。また、第3領域133は、第1オブジェクト101の外縁で囲まれ、第1オブジェクト101に対応する形状の領域であってもよい。 In the example of FIG. 10 , the third area 133 includes the left edge of the first object 101 and a range of X coordinates larger than the left edge of the first object 101 . Also, the third area 133 includes an upper end of the first object 101 and a range having a larger Y coordinate than the upper end of the second object 102 . This is just an example, and for example, the third area 133 may be the same as the first area 131 , which is a rectangular area surrounded by the top, bottom, left, and right edges of the first object 101 . Also, the third area 133 may be an area surrounded by the outer edge of the first object 101 and having a shape corresponding to the first object 101 .

ステップS57で、プロジェクター1は、第3領域を避けて新領域を設定する。図10の例で、新領域135は、投写画像Pにおいて第3領域133以外の全ての部分である。 In step S57, the projector 1 sets a new area avoiding the third area. In the example of FIG. 10, the new area 135 is all parts of the projection image P other than the third area 133. In the example of FIG.

ステップS58で、プロジェクター1は、新領域に水平の罫線を配置する。また、ステップS59で、プロジェクター1は、新領域に垂直の罫線を配置する。ステップS58、S59の動作は、ステップS54で算出された罫線の間隔に従って行われる。 In step S58, the projector 1 arranges horizontal ruled lines in the new area. Also, in step S59, the projector 1 arranges a vertical ruled line in the new area. The operations of steps S58 and S59 are performed according to the interval between the ruled lines calculated in step S54.

具体的には、ステップS58で、プロジェクター1は、ステップS54で算出した間隔に従って、水平の罫線を配置する。プロジェクター1は、第4領域の上端または下端に重なる1本目の水平の罫線を配置する。次に、プロジェクター1は、1本目の水平の罫線を基準として、ステップS54で算出した間隔で、第4領域の上方、及び、下方に、水平の罫線を配置する。プロジェクター1は、投写画像Pの上端より外側、投写画像Pの下端より外側、及び、第3領域には罫線を配置しない。 Specifically, in step S58, the projector 1 arranges horizontal ruled lines according to the intervals calculated in step S54. The projector 1 arranges a first horizontal ruled line that overlaps the upper end or the lower end of the fourth area. Next, using the first horizontal ruled line as a reference, the projector 1 arranges horizontal ruled lines above and below the fourth area at the intervals calculated in step S54. The projector 1 does not arrange ruled lines outside the upper end of the projected image P, outside the lower end of the projected image P, and in the third area.

続いて、ステップS59で、プロジェクター1は、ステップS54で算出した間隔に従って、垂直の罫線を配置する。詳細には、プロジェクター1は、第4領域の右端または左端に重なる1本目の垂直の罫線を配置する。次に、プロジェクター1は、1本目の垂直の罫線を基準として、ステップS54で算出した間隔で、第4領域の右方、及び、左方に、垂直の罫線を配置する。プロジェクター1は、投写画像Pの右端より外側、投写画像Pの左端より外側、及び、第3領域には罫線を配置しない。 Subsequently, in step S59, the projector 1 arranges vertical ruled lines according to the intervals calculated in step S54. Specifically, the projector 1 arranges a first vertical ruled line that overlaps the right end or left end of the fourth area. Next, using the first vertical ruled line as a reference, the projector 1 arranges vertical ruled lines on the right and left sides of the fourth area at the intervals calculated in step S54. The projector 1 does not arrange ruled lines outside the right edge of the projection image P, outside the left edge of the projection image P, and in the third area.

なお、1本目の水平の罫線は、第4領域の上端または下端から所定の距離を空けて配置されてもよい。同様に、1本目の垂直の罫線は、第4領域の右端または左端から所定の距離を空けて配置されてもよい。 Note that the first horizontal ruled line may be arranged at a predetermined distance from the upper end or lower end of the fourth area. Similarly, the first vertical ruled line may be arranged at a predetermined distance from the right or left edge of the fourth area.

プロジェクター1は、ステップS60で、ステップS58~S59で配置した罫線を含むガイド画像を生成する。プロジェクター1は、ガイド画像をスクリーンSCに表示し、図11のステップS17に移行する。 In step S60, the projector 1 generates a guide image including the ruled lines laid out in steps S58 and S59. The projector 1 displays the guide image on the screen SC, and proceeds to step S17 in FIG.

図10のガイド画像203に含まれる複数の水平の罫線231は、第4領域134の上端に重なる水平の罫線231、及び、第4領域134の下端に重なる水平の罫線231を含む。複数の水平の罫線231は、互いに、高さHT2に対応する間隔を空けて、投写画像Pに配置される。また、ガイド画像203は、第4領域134の右端に重なる垂直の罫線232、及び、第4領域134の左端に重なる垂直の罫線232を含む。複数の垂直の罫線232は、互いに、幅WT2に対応する間隔を空けて投写画像Pに配置されている。 A plurality of horizontal ruled lines 231 included in the guide image 203 of FIG. A plurality of horizontal ruled lines 231 are arranged in the projected image P with a space corresponding to the height HT2 from each other. The guide image 203 also includes a vertical ruled line 232 overlapping the right edge of the fourth area 134 and a vertical ruled line 232 overlapping the left edge of the fourth area 134 . A plurality of vertical ruled lines 232 are arranged in the projection image P with a space corresponding to the width WT2 from each other.

図10の例では、第3領域133よりも右側の領域に、垂直の罫線232が配置されていない部分がある。つまり、垂直の罫線232を、幅WT2に対応する間隔で、第3領域133に重ならないように配置することによって、第3領域133のX軸方向に空白が生じることがある。水平の罫線231についても同様である。 In the example of FIG. 10, there is a portion in which the vertical ruled line 232 is not arranged in the area to the right of the third area 133 . That is, by arranging the vertical ruled lines 232 at intervals corresponding to the width WT2 so as not to overlap the third region 133, a blank space may be generated in the third region 133 in the X-axis direction. The same is true for the horizontal ruled lines 231 .

このように、第3実施形態に係る表示方法によれば、スクリーンSCに対する入力を受け付けることは、指示体3AによるスクリーンSCに対する第1入力を受け付けることと、指示体3BによるスクリーンSCに対する第2入力を受け付けることと、を含む。この表示方法は、第1入力が行われた場合、第1入力が行われた第1入力位置を取得することと、第1入力位置に基づいて第1オブジェクト101をスクリーンSC上に表示することと、を含む。この表示方法は、第2入力が行われた場合、第2入力が行われた第2入力位置を取得することと、第2入力位置に基づいて第3オブジェクト103をスクリーンSC上に表示することと、を含む。この表示方法は、第3オブジェクト103が文字である場合に、第3オブジェクト103が表示された第4領域に基づいて、スクリーンSCに、第2入力に関連する入力位置を案内するガイド画像203を表示することと、をさらに含む。 Thus, according to the display method according to the third embodiment, accepting an input to the screen SC includes accepting a first input to the screen SC by the indicator 3A and a second input to the screen SC by the indicator 3B. including receiving In this display method, when the first input is performed, the first input position where the first input is performed is obtained, and the first object 101 is displayed on the screen SC based on the first input position. and including. In this display method, when the second input is performed, the second input position at which the second input is performed is acquired, and the third object 103 is displayed on the screen SC based on the second input position. and including. In this display method, when the third object 103 is a character, the guide image 203 for guiding the input position related to the second input is displayed on the screen SC based on the fourth area where the third object 103 is displayed. and displaying.

これにより、プロジェクター1は、指示体3Aと指示体3Bとを識別して、指示体3Bに対応する第2入力に対応してガイド画像203を表示する。このため、例えば、複数の指示体3A、3Bを利用して文字を入力する場合に、指示体3A、3Bの各々に対応するガイド画像201、203を表示して、ユーザーの負担を軽減できる。 Thereby, the projector 1 distinguishes between the pointer 3A and the pointer 3B, and displays the guide image 203 corresponding to the second input corresponding to the pointer 3B. Therefore, for example, when characters are input using a plurality of indicators 3A and 3B, the guide images 201 and 203 corresponding to the indicators 3A and 3B are displayed to reduce the user's burden.

そして、プロジェクター1による表示方法は、ガイド画像201を表示した後にガイド画像203を表示する場合、ガイド画像201の表示を終了することと、をさらに含む。また、プロジェクター1による表示方法は、ガイド画像201を表示した後、第1入力が行われていない状態で第2入力が行われた場合に、ガイド画像201の表示を終了することと、を含んでもよい。
これにより、複数のガイド画像201、203を混在させずに、ガイド画像203を表示できる。従って、投写画像Pの視認性を良好に維持できる。さらに、指示体3Bによる入力中は、ガイド画像203を見易い状態で表示できるので、より一層の操作性の向上を図ることができる。
The display method by the projector 1 further includes ending display of the guide image 201 when the guide image 203 is displayed after the guide image 201 is displayed. Further, the display method by the projector 1 includes, after displaying the guide image 201, terminating the display of the guide image 201 when the second input is performed while the first input is not performed. It's okay.
Thus, the guide image 203 can be displayed without mixing the guide images 201 and 203 together. Therefore, the visibility of the projected image P can be maintained well. Furthermore, since the guide image 203 can be displayed in an easy-to-see state during input by the pointer 3B, operability can be further improved.

第3実施形態において、プロジェクター1は、ガイド画像201を消去せずに、ガイド画像203を表示する構成であってもよい。この場合の表示例を図13に示す。 In the third embodiment, the projector 1 may be configured to display the guide image 203 without erasing the guide image 201 . A display example in this case is shown in FIG.

図13は、第3実施形態における投写画像Pの別の例を示す図である。
図13に示す投写画像Pは、第1オブジェクト101、及び、第3オブジェクト103を含む。図13の例では、第1オブジェクト101が配置された第3領域133に、ガイド画像201が表示される。また、投写画像Pにおいて第3領域133以外の部分である新領域135に、ガイド画像203が表示される。
FIG. 13 is a diagram showing another example of the projection image P in the third embodiment.
A projection image P shown in FIG. 13 includes a first object 101 and a third object 103 . In the example of FIG. 13, the guide image 201 is displayed in the third area 133 where the first object 101 is arranged. Further, a guide image 203 is displayed in a new area 135 which is a portion other than the third area 133 in the projection image P. FIG.

図13に示す表示態様は、例えば、図12に示した動作において、ステップS51を実行せず、ステップS56で判定した第3領域133のみにガイド画像201を表示すればよい。換言すれば、新領域135におけるガイド画像201を消去してもよい。その他の動作は、図11及び図12を参照して説明した通りに実行される。 As for the display mode shown in FIG. 13, for example, in the operation shown in FIG. 12, the guide image 201 may be displayed only in the third area 133 determined in step S56 without executing step S51. In other words, the guide image 201 in the new area 135 may be deleted. Other operations are performed as described with reference to FIGS.

このように、図13に示した表示方法によれば、スクリーンSCに、第1表示領域と、第2表示領域とを設ける。この表示方法は、ガイド画像201を第1オブジェクト101の表示位置を含む第1表示領域に表示することと、ガイド画像203を第3オブジェクト103の表示位置を含む第2表示領域に表示することと、をさらに含む。第1表示領域は、例えば、第3領域133に対応し、第2表示領域は、例えば、新領域135に対応する。
これにより、指示体3Aを使用するユーザーは、ガイド画像201を目安として文字入力を行うことができ、指示体3Bを使用するユーザーは、ガイド画像203を目安として文字を入力できる。
Thus, according to the display method shown in FIG. 13, the screen SC is provided with the first display area and the second display area. In this display method, the guide image 201 is displayed in the first display area including the display position of the first object 101, and the guide image 203 is displayed in the second display area including the display position of the third object 103. , further includes. The first display area corresponds to the third area 133, for example, and the second display area corresponds to the new area 135, for example.
Accordingly, the user using the indicator 3A can input characters using the guide image 201 as a guide, and the user using the indicator 3B can input characters using the guide image 203 as a guide.

図13に示す表示によれば、複数の指示体3A、3Bによって並行して文字を入力する操作に対応できる。
第3実施形態では、第1の例として、指示体3Aによる入力が終了した後、或いは、指示体3Aによる入力が行われていない間に、プロジェクター1が第3オブジェクト103を表示する場合を説明した。これに対し、指示体3Aによる入力が終了していないとき、或いは、指示体3Aによる入力中に、指示体3Bによる入力を受け付けた場合に、図13に示す表示態様を実行してもよい。この場合、ガイド画像201の表示を継続するので、指示体3Aを使用する入力を、ガイド画像201によって案内できる。さらに、ガイド画像203を表示することによって、指示体3Bによる入力を、ガイド画像203により案内できる。このため、指示体3A、3Bの両方を利用した入力の操作性の向上を図ることができる。
According to the display shown in FIG. 13, it is possible to cope with an operation of inputting characters in parallel using a plurality of pointers 3A and 3B.
In the third embodiment, as a first example, the case where the projector 1 displays the third object 103 after the input by the indicator 3A is completed or while the input by the indicator 3A is not being performed will be described. bottom. On the other hand, the display mode shown in FIG. 13 may be executed when the input by the indicator 3A is not completed, or when the input by the indicator 3B is accepted during the input by the indicator 3A. In this case, since the display of the guide image 201 is continued, the guide image 201 can guide the input using the pointer 3A. Furthermore, by displaying the guide image 203, the input by the indicator 3B can be guided by the guide image 203. FIG. Therefore, it is possible to improve the operability of input using both the indicators 3A and 3B.

プロジェクター1による表示方法は、図13の表示態様において、ガイド画像203を、ガイド画像201とは異なる色で表示することと、をさらに含んでもよい。この場合、指示体3Aに対応するガイド画像201と、指示体3Bに対応するガイド画像203とを、ユーザーが容易に識別できる。従って、指示体3Aを使用するユーザーと指示体3Bを使用するユーザーの双方の利便性の向上を図ることができる。 The display method by the projector 1 may further include displaying the guide image 203 in a color different from that of the guide image 201 in the display mode of FIG. 13 . In this case, the user can easily distinguish between the guide image 201 corresponding to the indicator 3A and the guide image 203 corresponding to the indicator 3B. Therefore, it is possible to improve the convenience of both the user using the indicator 3A and the user using the indicator 3B.

また、プロジェクター1は、投写画像Pを、指示体3Aの入力に対応する領域と、指示体3Bの入力に対応する領域とに分割してもよい。すなわち、投写画像Pを2以上の領域に分割し、いずれかの領域を第1表示領域とし、他の領域のいずれかを第2表示領域としてもよい。第1表示領域は、第1オブジェクト101を含んでいればよく、第2表示領域は第3オブジェクト103を含んでいればよい。具体的には、プロジェクター1は、投写画像Pを水平方向または垂直方向に分割して、第1表示領域と第2表示領域とを設けてもよい。 Further, the projector 1 may divide the projected image P into an area corresponding to the input of the indicator 3A and an area corresponding to the input of the indicator 3B. That is, the projected image P may be divided into two or more areas, one of which may be the first display area, and one of the other areas may be the second display area. The first display area should just include the first object 101 , and the second display area should just include the third object 103 . Specifically, the projector 1 may divide the projected image P horizontally or vertically to provide a first display area and a second display area.

図14は、第3実施形態における投写画像Pの別の例を示す図である。図14は、第2オブジェクト102が表示された状態で、第1オブジェクト101、及び、第3オブジェクト103が表示された場合の例である。この例では、第2オブジェクト102を含む第2領域132以外の領域が、第3領域133、及び、新領域135となる。 FIG. 14 is a diagram showing another example of the projected image P in the third embodiment. FIG. 14 shows an example in which the first object 101 and the third object 103 are displayed while the second object 102 is displayed. In this example, areas other than the second area 132 including the second object 102 are the third area 133 and the new area 135 .

図14の表示態様は、プロジェクター1が、図12に示したステップS56で、第1オブジェクト101を含む第3領域133に加え、第2オブジェクト102を含む第2領域132を判定することにより実現可能である。すなわち、プロジェクター1は、ステップS57で、第3領域133と第2領域132を避けるように新領域135を設定する。この場合も、図13に示した例と同様に、指示体3A、3Bの使用に関する操作性の向上を図ることができるとの効果を得ることができる。 The display mode of FIG. 14 can be realized by the projector 1 determining the second area 132 including the second object 102 in addition to the third area 133 including the first object 101 in step S56 shown in FIG. is. That is, the projector 1 sets the new area 135 so as to avoid the third area 133 and the second area 132 in step S57. Also in this case, similarly to the example shown in FIG. 13, it is possible to obtain the effect that the operability of using the indicators 3A and 3B can be improved.

[4.他の実施形態]
上述した各実施形態は、好適な実施の形態の開示である。ただし、上述の形態に限定されるものではなく、本開示は、種々の変形実施が可能である。
[4. Other embodiments]
Each embodiment described above is a disclosure of a preferred embodiment. However, the present disclosure is not limited to the embodiment described above, and various modifications are possible.

例えば、上述したプロジェクター1において使用可能な指示体3の数や種類に制限はない。例えば、第3実施形態で説明した動作を、指示体3Aと、ユーザーの手指とを識別して実行してもよい。また、上記実施形態では、プロジェクター1が指示体3を光学的に検出する例を説明したが、これは一例である。例えば、プロジェクター1は、指示体3と無線通信を実行することによって、指示体3の入力位置を検出する構成であってもよい。 For example, there is no limit to the number and types of pointers 3 that can be used in the projector 1 described above. For example, the operation described in the third embodiment may be performed by identifying the indicator 3A and the user's fingers. Further, in the above-described embodiment, an example in which the projector 1 optically detects the pointer 3 has been described, but this is just an example. For example, the projector 1 may be configured to detect the input position of the pointer 3 by performing wireless communication with the pointer 3 .

また、上記各実施形態で示した表示例は一例に過ぎず、プロジェクター1が文字として判定するオブジェクトの形状や種類は適宜に拡張可能である。プロジェクター1が判定する文字の言語に制限はなく、記号、絵文字、或いは絵記号を含んでもよい。 Further, the display examples shown in each of the above embodiments are merely examples, and the shapes and types of objects determined as characters by the projector 1 can be expanded as appropriate. The language of characters determined by the projector 1 is not limited, and may include symbols, pictographs, or pictorial symbols.

また、上記各実施形態では表示装置の一例としてプロジェクター1を用いる構成を説明した。表示装置として、例えば、表示パネルに画像を表示する表示装置を用いてもよい。この場合、表示パネルは表示面に相当し、表示パネルに画像を表示させる制御部または駆動部は表示部に相当する。表示パネルとしては、例えば、液晶表示パネル、OLEDパネル、或いは、OEL(Organic Electro Luminescence)ディスプレイパネルが挙げられるが、その他の表示方式を利用してもよい。 Further, in each of the above-described embodiments, the configuration using the projector 1 as an example of the display device has been described. As the display device, for example, a display device that displays an image on a display panel may be used. In this case, the display panel corresponds to the display surface, and the control section or driving section for displaying an image on the display panel corresponds to the display section. Examples of the display panel include a liquid crystal display panel, an OLED panel, or an OEL (Organic Electro Luminescence) display panel, but other display methods may be used.

また、図2に示したプロジェクター1の各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。 Moreover, each functional unit of the projector 1 shown in FIG. 2 shows a functional configuration, and a specific implementation form is not particularly limited. In other words, it is not always necessary to implement hardware corresponding to each functional unit individually, and it is of course possible to adopt a configuration in which one processor executes a program to realize the functions of a plurality of functional units. Further, a part of the functions realized by software in the above embodiments may be realized by hardware, and a part of the functions realized by hardware may be realized by software. In addition, the specific detailed configuration of other parts of the projector can be arbitrarily changed without departing from the scope of the present invention.

また、各フローチャートの処理単位は、プロジェクター1の処理を理解容易にするために、主な処理内容に応じて分割したものである。上記の各フローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部20の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。 Also, the processing unit of each flowchart is divided according to the main processing content in order to facilitate understanding of the processing of the projector 1 . The present invention is not limited by the division method and names of the processing units shown in the above flowcharts. Further, the processing of the control unit 20 can be divided into more processing units according to the processing contents, or can be divided so that one processing unit includes more processing. Also, the processing order of the above flowchart is not limited to the illustrated example.

また、表示装置の制御方法を、プロジェクター1が備えるコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体、ディスク型記録媒体、或いは、半導体メモリーデバイスを用いることができる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。 Further, when the display device control method is implemented using a computer provided in the projector 1, the program to be executed by the computer can be configured in the form of a recording medium or a transmission medium for transmitting the program. A magnetic or optical recording medium, a disk-type recording medium, or a semiconductor memory device can be used as the recording medium. Further, the recording medium may be a non-volatile storage device such as a RAM, ROM, HDD, etc., which is an internal storage device provided in the server device.

1…プロジェクター(表示装置)、3、3A、3B…指示体、10…投写部(表示部)、11…画像処理部、12…フレームメモリー、13…撮影部、14…画像入力部、15…操作部、20…制御部、21…プロセッサー、22…受付部、23…描画処理部、24…投写制御部、30…メモリー、31…制御プログラム、42…画像処理回路、101…第1オブジェクト、102…第2オブジェクト、103…第3オブジェクト、131…第1領域、132…第2領域、133…第3領域、134…第4領域、135…新領域、201…ガイド画像(第1ガイド画像)、203…ガイド画像(第2ガイド画像)、P…投写画像、SC…スクリーン(表示面)。 DESCRIPTION OF SYMBOLS 1... Projector (display apparatus) 3, 3A, 3B... Indicator, 10... Projection part (display part), 11... Image processing part, 12... Frame memory, 13... Shooting part, 14... Image input part, 15... Operation unit 20 Control unit 21 Processor 22 Reception unit 23 Drawing processing unit 24 Projection control unit 30 Memory 31 Control program 42 Image processing circuit 101 First object 102... second object, 103... third object, 131... first area, 132... second area, 133... third area, 134... fourth area, 135... new area, 201... guide image (first guide image ), 203... Guide image (second guide image), P... Projected image, SC... Screen (display surface).

Claims (8)

表示面に対する入力を受け付けることと、
前記入力が行われた入力位置を取得することと、
前記入力位置に基づいて第1オブジェクトを前記表示面に表示することと、
前記第1オブジェクトが文字であるかを判定することと、
前記第1オブジェクトが文字である場合に、前記第1オブジェクトが表示された第1領域に基づいて、前記表示面に、前記入力に関連する入力位置を案内する第1ガイド画像を表示することと、を含む、表示方法。
receiving input to the display surface;
obtaining an input location where the input was made;
displaying a first object on the display surface based on the input position;
determining if the first object is a character;
displaying a first guide image for guiding an input position related to the input on the display surface based on a first area where the first object is displayed when the first object is a character; , including, how to display.
前記第1領域とは異なる第2領域に第2オブジェクトを表示した後に、前記第1オブジェクトを表示した場合、前記第1ガイド画像を、前記表示面において前記第2領域を除く第3領域に描画することと、をさらに含む請求項1に記載の表示方法。 When the first object is displayed after displaying the second object in a second area different from the first area, the first guide image is rendered in a third area on the display surface excluding the second area. 2. The display method of claim 1, further comprising: 前記表示面に対する入力を受け付けることは、第1指示体による前記表示面に対する第1入力を受け付けることと、第2指示体による前記表示面に対する第2入力を受け付けることと、を含み、
前記第1入力が行われた場合、前記第1入力が行われた第1入力位置を取得することと、
前記第1入力位置に基づいて前記第1オブジェクトを前記表示面に表示することと、
前記第2入力が行われた場合、前記第2入力が行われた第2入力位置を取得することと、
前記第2入力位置に基づいて第3オブジェクトを前記表示面に表示することと、
前記第3オブジェクトが文字である場合に、前記第3オブジェクトが表示された第4領域に基づいて、前記表示面に、前記第2入力に関連する入力位置を案内する第2ガイド画像を表示することと、をさらに含む、請求項1または請求項2に記載の表示方法。
accepting an input to the display surface includes accepting a first input to the display surface by a first indicator; and accepting a second input to the display surface by a second indicator;
obtaining a first input position at which the first input is performed if the first input is performed;
displaying the first object on the display surface based on the first input position;
obtaining a second input position where the second input is performed when the second input is performed;
displaying a third object on the display surface based on the second input position;
displaying a second guide image for guiding an input position related to the second input on the display surface based on a fourth area in which the third object is displayed when the third object is a character; 3. The display method according to claim 1 or 2, further comprising:
前記第1ガイド画像を表示した後に前記第2ガイド画像を表示する場合、前記第1ガイド画像の表示を終了することと、をさらに含む請求項3に記載の表示方法。 4. The display method according to claim 3, further comprising, when displaying the second guide image after displaying the first guide image, ending display of the first guide image. 前記第1ガイド画像を表示した後、前記第1入力が行われていない状態で前記第2入力が行われた場合に、前記第1ガイド画像の表示を終了することと、をさらに含む請求項3に記載の表示方法。 After displaying the first guide image, if the second input is performed while the first input is not performed, the display of the first guide image is terminated. 3. The display method described in 3. 前記第2ガイド画像を、前記第1ガイド画像とは異なる色で表示することと、をさらに含む請求項3から請求項5のいずれか1項に記載の表示方法。 6. The display method according to any one of claims 3 to 5, further comprising displaying the second guide image in a color different from that of the first guide image. 前記第1ガイド画像を前記第1オブジェクトの表示位置を含む第1表示領域に表示することと、
前記第2ガイド画像を前記第3オブジェクトの表示位置を含む第2表示領域に表示することと、をさらに含む請求項3から請求項6のいずれか1項に記載の表示方法。
displaying the first guide image in a first display area including the display position of the first object;
7. The display method according to any one of claims 3 to 6, further comprising displaying the second guide image in a second display area including the display position of the third object.
表示面に表示を行う表示部と、
前記表示面に対する入力を受け付ける受付部と、
前記入力が行われた入力位置を取得して、前記入力位置に基づいて第1オブジェクトを前記表示部に表示させる制御部と、を備え、
前記制御部は、
前記第1オブジェクトが文字であるかを判定することと、
前記第1オブジェクトが文字である場合に、前記第1オブジェクトが表示された第1領域に基づいて、前記入力に関連する入力位置を案内する第1ガイド画像を前記表示部に表示させることと、を含む表示装置。
a display unit for displaying on a display surface;
a reception unit that receives an input to the display surface;
a control unit that acquires the input position where the input is performed and displays the first object on the display unit based on the input position;
The control unit
determining if the first object is a character;
causing the display unit to display a first guide image that guides an input position related to the input based on a first area in which the first object is displayed when the first object is a character; Display device including.
JP2021213934A 2021-12-28 2021-12-28 Display method and display device Pending JP2023097686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021213934A JP2023097686A (en) 2021-12-28 2021-12-28 Display method and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021213934A JP2023097686A (en) 2021-12-28 2021-12-28 Display method and display device

Publications (1)

Publication Number Publication Date
JP2023097686A true JP2023097686A (en) 2023-07-10

Family

ID=87072223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021213934A Pending JP2023097686A (en) 2021-12-28 2021-12-28 Display method and display device

Country Status (1)

Country Link
JP (1) JP2023097686A (en)

Similar Documents

Publication Publication Date Title
US9684385B2 (en) Display device, display system, and data supply method for display device
JP6111706B2 (en) Position detection apparatus, adjustment method, and adjustment program
US10133366B2 (en) Interactive projector and interactive projection system
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
US9024953B2 (en) Image generating apparatus, projector, computer program, and image generating method
US10276133B2 (en) Projector and display control method for displaying split images
US20120212408A1 (en) Image generation device, projector, and image generation method
JP6544073B2 (en) Image display system and image display method
US10416813B2 (en) Display system, display device, information processing device, and information processing method
US11073949B2 (en) Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
JP2015212927A (en) Input operation detection device, image display device including input operation detection device, and projector system
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US10551972B2 (en) Interactive projector and method of controlling interactive projector
JP6390163B2 (en) Information processing apparatus, information processing method, and program
JP2023097686A (en) Display method and display device
US9544561B2 (en) Interactive projector and interactive projection system
JP7347205B2 (en) Projection system control method, projection system and control program
US9958958B2 (en) Interactive projector and method of controlling interactive projector
US9787961B2 (en) Projector and method for controlling projector
JP6540275B2 (en) Display device and image display method
US20160282959A1 (en) Interactive projector and method of controlling interactive projector
CN113093935B (en) Display device control method and display device
US20230314914A1 (en) Image display method, information processing apparatus, and recording medium having program recorded thereon
US20230004282A1 (en) Image processing method and image processing device
US20230260079A1 (en) Display method for and display apparatus