WO2022215147A1 - 投影制御装置、投影制御システム、および投影制御方法 - Google Patents

投影制御装置、投影制御システム、および投影制御方法 Download PDF

Info

Publication number
WO2022215147A1
WO2022215147A1 PCT/JP2021/014561 JP2021014561W WO2022215147A1 WO 2022215147 A1 WO2022215147 A1 WO 2022215147A1 JP 2021014561 W JP2021014561 W JP 2021014561W WO 2022215147 A1 WO2022215147 A1 WO 2022215147A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
projected
detection
line
area
Prior art date
Application number
PCT/JP2021/014561
Other languages
English (en)
French (fr)
Inventor
礼子 坂田
竜成 片岡
直紀 古畑
咲樹 松井
淳 嶋田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/014561 priority Critical patent/WO2022215147A1/ja
Priority to JP2021545749A priority patent/JP7031071B1/ja
Publication of WO2022215147A1 publication Critical patent/WO2022215147A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present disclosure relates to projection control technology.
  • Patent Document 1 a plurality of destinations and arrows indicating the direction of each destination are projected onto a floor surface in front of a person by a projector, and a motion of the person stepping on any one of the arrows is detected by a sensor.
  • a projection system is disclosed that senses with a camera and projects further projections for guidance according to the sensing results.
  • the appearance of the user creates a shadow area that the detection sensor cannot detect. More specifically, from the perspective of the sensing sensor, the area behind the user is a shadow area for the sensing sensor. If a projection is projected onto such a shadow area, it is as if the user or another user can select the projection projected onto the shadow area, even though the projection cannot be selected. There is a problem of getting an impression.
  • the present disclosure has been made to solve such problems, and one aspect of the embodiments is to provide a projection control technique that can suggest a shadow area that cannot be detected by a detection sensor. With the goal.
  • the projection control device includes a projection content setting unit that sets a projection object to be projected onto a projection plane, and the projection object is a projector that projects the projection object and a detection area.
  • the projection control apparatus it is possible to suggest a shadow area where the detection sensor cannot detect.
  • FIG. 1 is a block diagram showing the configuration of a projection control system and a projection control device
  • FIG. FIG. 3 is a diagram showing an example of arrangement of a projection control system and an example of projection
  • FIG. 10 is a diagram showing a projection example in which a plurality of lines are projected so as to be orthogonal to an imaginary line (second imaginary line);
  • FIG. 10 is a diagram showing a projection example in which a plurality of lines are projected so as to be inclined with respect to an imaginary line (second imaginary line);
  • FIG. 10 is a diagram showing a projection example in which a plurality of lines are projected so as to be entirely orthogonal to an imaginary line (second imaginary line);
  • FIG. 10 is a diagram showing a projection example in which a plurality of lines are projected so as to be entirely parallel to an imaginary line (second imaginary line);
  • FIG. 10 is a diagram showing a problem in a projection example in which a plurality of lines are projected so as to be parallel to an imaginary line (second imaginary line);
  • FIG. 10 is a diagram showing that when a plurality of lines are projected non-parallel to an imaginary line (second imaginary line), a shadow of a detection sensor and a shadow of a user are formed; It is a figure which shows the example of a setting of a detection area and a display area.
  • 2 is a diagram showing an example hardware configuration of a projection control apparatus;
  • FIG. 2 is a diagram showing an example hardware configuration of a projection control apparatus;
  • FIG. 1 is a diagram showing an example hardware configuration of a projection control apparatus;
  • FIG. 4 is a flow chart showing operations of a projection control device and a projection control system
  • 12A to 12D are diagrams for explaining the operations of the projection control device and the projection control system.
  • FIG. 12A is a diagram showing a projection example.
  • FIG. 12B is a diagram showing how the user tries to select a projected object.
  • FIG. 12C is a diagram showing that the projection content changes when it is determined that the user has selected the projected object.
  • FIG. 12D is a diagram showing how the user leaves after selecting a projection object.
  • Embodiment 1 A projection control apparatus 100 according to Embodiment 1 will be described below with reference to FIGS. 1 to 12.
  • FIG. 1 the projection control system Sys includes a projection control device 100, a database device 1, a projector 2, and a detection sensor 3.
  • the database device 1 has a database storing content projected by the projector 2, and the projection control device 100 refers to the database device 1 to acquire the content.
  • the projection control device 100 outputs the acquired content to the projector 2 , and the projector 2 projects the content input from the projection control device 100 .
  • the detection sensor 3 detects a signal in a predetermined detection area and outputs the detected signal to the projection control apparatus 100 .
  • the projection control apparatus 100 determines whether an object exists in a predetermined detection area and performs processing according to the determination result. For example, when a certain projected object is displayed, the projection control apparatus 100 acquires content to be displayed next from the database device 1 when an object is detected in a predetermined detection area, and sends the acquired content to the projector 2 . Output to At this time, the projection control apparatus 100 may output a control signal for controlling the external device 4 to the external device 4 .
  • FIG. 2 is a diagram showing an example of arrangement of the projection control system Sys and an example of projection by the projector 2 in an elevator hall of a certain building when the external device 4 is an elevator control device.
  • An imaginary line 5 is an imaginary line connecting the projector 2 and the detection sensor 3 .
  • FIG. 2 shows an example in which the projector 2 is located far from the floor surface, which is the projection surface, along the imaginary line 5, the positions of the projector 2 and the detection sensor 3 may be reversed. When arranged as shown in FIG. 2, shadows, which will be described later, are easily visible.
  • FIG. 2 depicts the projector 2 and the detection sensor 3 as being housed inside the projection control system Sys, the projector 2 and the detection sensor 3 are exposed on the surface of the projection control system Sys, unlike FIG. You may have When the projector 2 and the detection sensor 3 are housed as shown in FIG. 2, the surface of the projection control system Sys corresponding to the projector 2 and the detection sensor 3 is made of a member that easily transmits electromagnetic waves.
  • the display as shown in FIG. 2 is made within the display area DA.
  • Three lines are displayed in the display area DA.
  • the three lines remind elevator users of two lanes between them. Also displayed in these lanes are buttons for going upstairs or downstairs.
  • the projection control system Sys may be provided on the wall of the elevator hall rather than being provided as a separate integral unit as shown in FIG.
  • the distance from the light source of the projector 2 to the display area DA can be made shorter than when the light source is arranged on the ceiling, for example. Therefore, it is possible to perform brighter display. Since the illuminance is inversely proportional to the square of the distance from the light source, if the distance is halved, the illuminance is quadrupled.
  • the detection sensor 3 detects an object in a predetermined detection area and outputs a detection signal to the projection control device 100 .
  • sensing sensors 3 include laser scanners, also referred to as laser range sensors, infrared sensors, and imaging cameras.
  • the detection area is set by the projection control apparatus 100 according to the display content displayed within the display area DA. For example, as shown in FIG. 9, two detection regions DR1 and DR2 are set by the projection control device 100 in response to two buttons, and the detection sensor 3 detects objects within the detection regions DR1 or DR2. do. In order to perform detection accurately, a non-detection area may be provided between each detection area.
  • the relationship between the display area and the detection area may be adjusted so that the projected object can be easily seen by the user heading to the elevator.
  • the detection areas DR1 and DR2 are set to include areas in front of the display areas DA1 and DA2 where the buttons are displayed, respectively, as seen from the user heading for the elevator.
  • the projection control apparatus 100 includes a projection content setting section 101 , a reception determination section 102 , a detection area setting section 103 and a control signal transmission section 104 .
  • the projection content setting unit 101 is a functional unit that sets the content to be projected by the projector 2 according to the state signal input from the reception determination unit 102 .
  • the state signal represents a state corresponding to the content of detection by the detection sensor 3 .
  • the state according to the detection content includes, for example, a standby state in which the detection sensor 3 does not detect an object, and a state in which the detection sensor 3 detects an object in the detection area.
  • the detected state may be subdivided into a plurality of states according to which detection area the object was detected.
  • a state includes a plurality of states
  • a state signal is a signal corresponding to one of the plurality of states.
  • the projection content setting unit 101 acquires content from the database device 1 according to the state signal and outputs the acquired content to the projector 2 .
  • the projector 2 projects the content input from the projection content setting unit 101 . Projection by the projector 2 causes a projected object to be displayed on the floor surface of the elevator hall, as shown in FIG. 2, for example.
  • FIG. 3 to 5 show projection examples in which a plurality of lines L1 to L3 are projected non-parallel to an imaginary line 6 extending in a direction perpendicular to the imaginary line 5.
  • FIG. 3 is a diagram showing a projection example in which a plurality of lines L1 to L3 are projected so as to be orthogonal to the imaginary line 6.
  • Projection DO1 is projected between lines L1 and L2
  • projection DO2 is projected between lines L2 and L3.
  • the projection content setting unit 101 may set the projection content such that such projection is performed.
  • FIG. 4 is a diagram showing a projection example in which a plurality of lines L1 to L3 are projected so as to be inclined with respect to the imaginary line 6.
  • the projection content setting unit 101 may set the projection content such that such projection is performed.
  • FIG. 5 is a diagram showing a projection example in which a plurality of lines L1 to L3 are projected so as to be entirely orthogonal to the imaginary line 6.
  • FIG. The expression "generally orthogonal" means that each line L1-L3 is substantially orthogonal to the imaginary line 6 when viewed as a whole.
  • each of the lines L1 to L3 includes line segments that are parallel to the imaginary line 6, but when the lines L1 to L3 are viewed as a whole, they are orthogonal to the imaginary line 6.
  • the projection content setting unit 101 may set the projection content such that such projection is performed.
  • FIG. 6 is a diagram showing a projection example in which a plurality of lines L1 to L3 are projected so as to be parallel to the imaginary line 6 as a whole.
  • the projection content setting unit 101 does not set the projection content such that such projection is performed. This is because, if projections as shown in FIG. 6 are performed, the possibility of selecting different projection objects at the same time increases. That is, when projection as shown in FIG. 6 is performed, a person P1 may be detected in the detection area DR1 and a person P2 may be detected in the detection area DR2 at the same time as shown in FIG.
  • FIG. 8 is a diagram corresponding to FIG.
  • the shadow area corresponding to the shadow area of the detection sensor 3 is projected on the projection plane as in the case of FIG. can.
  • the reception determination unit 102 receives the detection signal of the detection area from the detection sensor 3 and determines whether an object exists in the predetermined detection area. More specifically, the reception determination unit 102 receives a signal detected by the detection sensor 3 from the detection sensor 3 and determines whether or not an object exists in a predetermined detection area, thereby displaying the signal in the display area. Determine if the projected projection has been selected by a user who is an object.
  • the display area contains subclass display areas. For example, as shown in FIG. 9, the display area DA includes a display area DA1 displaying a button for going downstairs and a display area DA2 displaying a button for going upstairs. .
  • the reception determination unit 102 receives the detection signal of the detection area from the detection sensor 3 .
  • the reception determination unit 102 outputs a request signal requesting the detection signal of one or more detection areas to the detection sensor 3, and the detection sensor 3 outputs the detection signal of the detection area.
  • Receive detection signals For example, the reception determination unit 102 requests the detection signals of the detection regions DR1 and DR2 from the detection sensor 3, and receives the detection signals for each detection region.
  • an infrared sensor is used as the detection sensor 3
  • an infrared sensor corresponding to each detection area is used to receive the detection signal of each detection area.
  • Reception determining unit 102 determines whether or not an object exists in detection area DR1 provided corresponding to display area DA1 or detection area DR2 provided corresponding to display area DA2. or the projection object DO2 displayed in the display area DA2 has been selected by the user. Whether or not an object exists in a predetermined detection area can be determined by using data obtained when no object exists as a reference and detecting a difference between the reference and detection data obtained from the detection signal. can.
  • Objects include reflectors that reflect electromagnetic waves, such as people and wheelchairs.
  • the reception determination unit 102 After determining whether an object exists within the detection area based on the received detection data, the reception determination unit 102 performs predetermined processing according to the determination result.
  • the reception determination unit 102 performs, for example, the following processes according to the determination result.
  • the reception determination unit 102 detects an object in the detection region DR1 or DR2
  • the reception determination unit 102 outputs a state signal corresponding to this detection to the projection content setting unit 101 .
  • the reception determination unit 102 determines that no object exists in the detection region DR1 or DR2
  • the reception determination unit 102 continues the current projection.
  • a status signal is output to the projection content setting unit 101 .
  • reception determination section 102 detects an object in detection region DR1 or DR2
  • reception determination section 102 outputs a signal corresponding to this detection to control signal transmission section 104 .
  • a detection area setting unit 103 sets an effective detection area for detecting an object as an effective detection area.
  • the sensing area may be a two-dimensional area or a three-dimensional area.
  • the relationship between the display area and the sensing area may be adjusted so that projections associated with controlling the external device 4 are more visible to the user heading to the elevator.
  • the detection areas DR1 and DR2 are set to include areas in front of the display areas DA1 and DA2 where the buttons are displayed, respectively, as seen from the user heading for the elevator.
  • the detection region setting unit 103 sets the detection region DR1 between the two lines L1 and L2 and including the vicinity of the region where the projected object displayed in the display region DA1 is projected as the effective detection region.
  • a detection region DR2 that is between the two lines L2 and L3 and includes the vicinity of the region where the projected object displayed in the display region DA2 is projected is set as an effective detection region.
  • the detection area setting unit 103 outputs data representing the set detection area to the reception determination unit 102 , and the reception determination unit 102 outputs a state signal corresponding to the input data to the projection content setting unit 101 .
  • Control signal transmission section 104 outputs a signal for controlling external device 4 to external device 4 according to the content of the signal input from reception determination section 102 .
  • FIGS. 10A and 10B are diagrams showing hardware configuration examples of the projection control apparatus 100.
  • the projection control apparatus 100 includes a processing circuit 100a, and functions of a projection content setting section 101, a reception determination section 102, a detection area setting section 103, and a control signal transmission section 104. is realized by the processing circuit 100a.
  • projection control apparatus 100 includes processor 100b and memory 100c, projection content setting section 101, reception determination section 102, detection area setting section 103, and control signal transmission section 104. are implemented by the processor 100b reading and executing a program stored in the memory 100c.
  • FIG. 11 is a flow chart showing the operations of the projection control apparatus 100 and the projection control system Sys. The flow in FIG. It is started by being input.
  • FIGS. 12A to 12D are diagrams for explaining the operation of the projection control apparatus, and supplementarily explain the flow of the operation shown by the flowchart of FIG. 11.
  • FIG. 12A to 12D are diagrams for explaining the operation of the projection control apparatus, and supplementarily explain the flow of the operation shown by the flowchart of FIG. 11.
  • the detection area setting section 103 sets the detection area and outputs data indicating the set detection area to the reception determination section 102 .
  • detection region setting section 103 sets detection regions DR1 and DR2 and outputs data indicating the set detection regions DR1 and DR2 to reception determination section 102 .
  • the projection content setting unit 101 sets the projection content to be projected by the projector 2 .
  • the projection content setting unit 101 sets the projection content so that the display as shown in FIG. 12A is performed.
  • the projection content is set so as to include the projected object DO1 projected at a distance r1 and the projected object DO2 projected at a distance r2 that is farther than the distance r1 with respect to the imaginary line 5 (see also FIG. 8). ).
  • Multiple lines may be included in the projection content such that the projection DO1 and the projection DO2 are projected between the multiple lines.
  • the set projection content is output to the projector 2 of the projection control system Sys and projected by the projector 2 .
  • the reception determination unit 102 determines whether or not an object exists in the detection area DR1 or DR2 based on the signal from the detection sensor 3. That is, the reception determination unit 102 determines which of the projection object displayed in the display area DA1 and the projection object displayed in the display area DA2 is selected by the user. For example, as shown in FIG. 12B, the reception determining unit 102 determines whether an elevator user is present in the detection area DR2, thereby displaying the above message displayed in the display area DA2 (see FIG. 9). Determine whether the button to go to the floor has been selected.
  • step ST2 If NO in step ST2, the process returns to step ST1.
  • the detection area setting unit 103 changes the projection content in step ST3. For example, as shown in FIG. 12C, change the projection content to display a text message that reads, "Call the elevator.” In addition, as shown in FIG. 12C, the projection content is changed so as to highlight the upstairs button that has been determined to be selected.
  • step ST4 the control signal transmission unit 104 transmits a control signal for controlling the external device 4 to the external device 4.
  • the control signal transmission unit 104 A control signal indicating going to the upper floor is transmitted to the elevator control device as the external device 4 .
  • the user enters the car (Fig. 12D).
  • the external device 4 is an elevator control device, but the external device 4 may be another device.
  • the external device 4 may be a control device for a lighting device. If the external device 4 is a control device for an illumination device, for example, the characters "ON" are projected on the display area DA1, and the characters "OFF" are projected on the display area DA2. The user can turn ON/OFF the illumination device by selecting the projected ON or OFF object.
  • a sound effect may be played when the selection action is detected.
  • the projection control device (100) of appendix 1 comprises a projection content setting unit (101) for setting a projection object to be projected onto a projection surface, and the projection object is a projector (2) that projects the projection object and a detection area.
  • the projection control device of Appendix 2 is the projection control device of Appendix 1, wherein the projection further comprises a first line (L1), a second line (L2) and a third line (L3);
  • the first line, the second line and the third line are non-parallel to a second imaginary line (6) extending in a direction orthogonal to the first imaginary line, and
  • a first projection (DO1) is projected between said first line (L1) and said second line (L2) and said second projection (DO2) is projected between said second line ( L2) and the third line (L3).
  • the projection control device of appendix 3 is the projection control device of appendix 1 or 2, which receives the signal detected by the detection sensor (3) and determines whether or not the projected object has been selected by the user. and a control signal transmitter (104) capable of transmitting a control signal for controlling the external device (4), wherein the control signal transmitter (104) When it is determined that the first projection object or the second projection object is selected, the external device outputs a control signal corresponding to the selection of the first projection object or the second projection object. to.
  • the projection control apparatus of appendix 4 is the projection control apparatus of appendix 2 or appendix 3 subordinate to appendix 2, further comprising a detection area setting unit (103) for setting the detection area, wherein the detection area setting unit is: An area between the first line and the second line and including the vicinity of the area on which the first projection is projected is set as a first detection area.
  • the projection control apparatus according to appendix 5 is the projection control apparatus according to appendix 4, wherein the detection area setting unit is located between the second line and the third line, and the second projected object is projected. A region containing the vicinity of the region to be detected is set as a second detection region.
  • the projection control system of appendix 6 includes a projector (2) that projects a projected object onto a projection surface, a detection sensor (3) that acquires a detection signal of a detection area, and any one of appendices 1 to 5. a projection control device (100).
  • the projection control system of appendix 7 is the projection control system of appendix 6, wherein the detection sensor (3) is on the first imaginary line (5) between the projector (2) and the projection plane. placed in the middle.
  • the projection control method of appendix 8 comprises a projection control device (100) having a projection content setting unit (101) for setting a projection object to be projected onto a projection surface, and a projector (2) for projecting the set projection object.
  • the projection object is set so as to include a second projection object to be projected, and the set projection object is projected by the projector (2).
  • a projection control device can be used, for example, as a device that transmits a control signal to an elevator.
  • 1 database device 2 projector, 3 detection sensor, 4 external device, 100 projection control device, 100a processing circuit, 100b processor, 100c memory, 101 projection content setting unit, 102 reception determination unit, 103 detection area setting unit, 104 control signal Transmitter, Sys projection control system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

投影制御装置(100)は、投影面に投影する投影物を設定する投影内容設定部(101)を備え、前記投影物は、前記投影物を投影するプロジェクタ(2)と検知領域の検知信号を取得する検知センサ(3)とを結ぶ第1の想像線に対して、第1の距離(r1)に投影される第1の投影物と、前記第1の距離よりも遠い第2の距離(r2)に投影される第2の投影物とを含む。

Description

投影制御装置、投影制御システム、および投影制御方法
 本開示は、投影制御技術に関する。
 以下の特許文献1には、人の前の床面に、複数の目的地と各目的地の方向を示す矢印とをプロジェクタにより投影し、その人が何れか1つの矢印を踏む動作を検知センサとしてのカメラで検知して、検知結果に応じて案内をするための更なる投影物を投影する投影システムが開示されている。
特開2014-123277号公報
 このようなプロジェクタと検知センサを用いる従来技術によれば、ユーザが出現することにより検知センサが検知を行うことができない陰の領域が生じる。より具体的には、検知センサから見て、ユーザの背後の領域は検知センサにとって陰の領域となる。このような陰の領域に投影物が投影されていると、その投影物を選択できないにもかかわらず、そのユーザ又は他のユーザは陰の領域に投影された投影物を選択できるかのような印象を受けるという課題がある。
 本開示はこのような課題を解決するためになされたものであり、実施形態の一側面は、検知センサが検知を行うことができない陰の領域を示唆することができる投影制御技術を提供することを目的とする。
 実施形態による投影制御装置の一側面によれば、投影制御装置は、投影面に投影する投影物を設定する投影内容設定部を備え、前記投影物は、前記投影物を投影するプロジェクタと検知領域の検知信号を取得する検知センサとを結ぶ第1の想像線に対して、第1の距離に投影される第1の投影物と、前記第1の距離よりも遠い第2の距離に投影される第2の投影物とを含む。
 実施形態による投影制御装置の一側面によれば、検知センサが検知を行うことができない陰の領域を示唆することができる。
投影制御システムおよび投影制御装置の構成を示すブロック図である。 投影制御システムの配置例および投影例を示す図である。 想像線(第2の想像線)に対して、複数の線が直交するように投影されている投影例を示す図である。 想像線(第2の想像線)に対して、複数の線が傾くように投影されている投影例を示す図である。 想像線(第2の想像線)に対して、複数の線が全体的に直交するように投影されている投影例を示す図である。 想像線(第2の想像線)に対して、複数の線が全体的に平行となるように投影されている投影例を示す図である。 想像線(第2の想像線)に対して、複数の線が平行となるように投影されている投影例の場合の問題点を示す図である。 想像線(第2の想像線)に対して、複数の線が非平行に投影される場合に、検知センサの陰およびユーザの影ができることを示す図である。 検知領域および表示領域の設定例を示す図である。 投影制御装置のハードウェア構成例を示す図である。 投影制御装置のハードウェア構成例を示す図である。 投影制御装置および投影制御システムの動作を示すフローチャートである。 図12Aから図12Dは、投影制御装置および投影制御システムの動作を説明するための図である。図12Aは、投影例を示す図である。図12Bは、投影された投影物をユーザが選択しようとする様子を示す図である。図12Cは、投影された投影物をユーザが選択したと判定された場合に、投影内容が変化することを示す図である。図12Dは投影物の選択を終えたユーザが立ち去る様子を示す図である。
 以下、図面を添付の参照しつつ、本開示における種々の実施形態について詳細に説明する。なお、図面において同一符号を付された構成要素は、同一または類似の構成または機能を有するものとする。
実施の形態1.
<構成>
 以下、図1から図12を参照して、実施の形態1に係る投影制御装置100について説明する。図1に示されているように、投影制御システムSysは、投影制御装置100と、データベース装置1と、プロジェクタ2と、検知センサ3と、を備える。
 データベース装置1はプロジェクタ2により投影されるコンテンツを格納したデータベースを備え、投影制御装置100はデータベース装置1を参照してコンテンツを取得する。投影制御装置100は取得したコンテンツをプロジェクタ2へ出力し、プロジェクタ2は投影制御装置100から入力されたコンテンツを投影する。検知センサ3は、所定の検知領域の信号を検知して、検知した信号を投影制御装置100へ出力する。投影制御装置100は、所定の検知領域にオブジェクトが存在するか否かを判定して判定結果に応じた処理を行う。例えば、ある投影物が表示されている場合において、投影制御装置100は、所定の検知領域にオブジェクトを検知したときは、次に表示すべきコンテンツをデータベース装置1から取得して取得コンテンツをプロジェクタ2へ出力する。この際、投影制御装置100は、外部装置4に外部装置4を制御するための制御信号を出力してもよい。
 外部装置4がエレベータの制御装置である場合、投影制御システムSysは、例えば図2に示されているように配置される。図2は、外部装置4がエレベータの制御装置である場合について、ある建物のエレベータホールにおける、投影制御システムSysの配置例、およびプロジェクタ2による投影例を示す図である。想像線5は、プロジェクタ2と検知センサ3を結ぶ想像線である。図2では想像線5に沿ってプロジェクタ2が投影面である床面から遠い位置に配置されている例が示されているが、プロジェクタ2と検知センサ3の位置は逆であってもよい。図2のように配置する場合には、後述する影が視認しやすくなる。なお、投影面は、投影制御システムSysが他の物と接する投影制御システムSysの表面と実質的に同一である。図2ではプロジェクタ2と検知センサ3が投影制御システムSysの内部に格納されているように描かれているが、プロジェクタ2と検知センサ3は、図2と異なり、投影制御システムSysの表面に露出していてもよい。プロジェクタ2と検知センサ3が図2のように格納される場合には、プロジェクタ2と検知センサ3に対応する投影制御システムSysの表面には電磁波を透過しやすい部材が用いられる。
 プロジェクタ2の投影により、表示領域DA内に図2に示されたような表示がなされる。表示領域DA内には、3本の線が表示されている。この3本の線により、エレベータのユーザには線に挟まれた2つのレーンが想起される。また、これらのレーン内には、上の階へ行くためのボタンまたは下の階へ行くためのボタンが表示されている。投影制御システムSysは、図2に示されているような独立した一体的なユニットとして設けられるのでなく、エレベータホールの壁面に設けられてもよい。図2のように投影制御システムSysを床面に配置することにより、プロジェクタ2の光源から表示領域DAまでの距離を、例えば光源が天井面に配置される場合よりも短くすることが可能となるので、より明るい表示を行うことが可能となる。照度は光源からの距離の二乗に反比例するので、距離が例えば1/2倍になれば、照度は4倍になる。
 検知センサ3は、所定の検知領域におけるオブジェクトを検知して、検知信号を投影制御装置100へ出力する。検知センサ3の例には、レーザ測域センサとも称されるレーザスキャナ、赤外線センサ、および撮像カメラが含まれる。検知領域は、表示領域DA内に表示される表示内容に応じて投影制御装置100により設定される。例えば、図9に示されているように、2つのボタンに応じて、2つの検知領域DR1およびDR2が投影制御装置100により設定され、検知センサ3は、検知領域DR1またはDR2内のオブジェクトを検知する。検知を正確に行うため、各検知領域の間に検知を行わない非検知領域を設けてもよい。また、投影物がエレベータに向かうユーザに見え易くなるようにするため、表示領域と検知領域の関係が調整されていてもよい。例えば、図9に示されているように、検知領域DR1およびDR2は、それぞれ、エレベータに向かうユーザから見て、ボタンが表示されている表示領域DA1およびDA2の手前の領域を含むように設定されてもよい。
 以下、外部装置4の例が以上のようなエレベータの制御装置である場合に即して、投影制御装置100の詳細な構成について説明する。投影制御装置100は、投影内容設定部101と、受信判定部102と、検知領域設定部103と、制御信号発信部104と、を備える。
(投影内容設定部)
 投影内容設定部101は、受信判定部102から入力される状態信号に応じて、プロジェクタ2により投影される内容を設定する機能部である。状態信号は、検知センサ3による検知内容に応じた状態を表す。検知内容に応じた状態には、例えば、検知センサ3によりオブジェクトが検知されていない待機状態、および検知センサ3によりオブジェクトが検知領域に検知された状態が含まれる。検知領域が複数設定される場合、検知された状態は、オブジェクトがどの検知領域に検知されたかに応じて複数の状態に細分化されてもよい。このように、状態には複数の状態が含まれ、状態信号はその複数の状態のうちの1つの状態に対応した信号である。
 投影内容設定部101は、状態信号に応じてデータベース装置1からコンテンツを取得して、取得したコンテンツをプロジェクタ2へ出力する。プロジェクタ2は、投影内容設定部101から入力されたコンテンツを投影する。プロジェクタ2の投影により、例えば図2に示されているように、エレベータホールの床面に投影物が表示される。
 ここで、図3から図8を参照して、種々の投影例について説明する。図3から図5は、想像線5に対して直交する方向に延びる想像線6に対して、複数の線L1~L3が非平行に投影される投影例を示す。図3は、想像線6に対して、複数の線L1~L3が直交するように投影される投影例を示す図である。線L1および線L2の間には投影物DO1が投影され、線L2および線L3の間には投影物DO2が投影される。投影内容設定部101は、このような投影がなされるように投影内容を設定してもよい。
 図4は、想像線6に対して、複数の線L1~L3が傾くように投影される投影例を示す図である。投影内容設定部101は、このような投影がなされるように投影内容を設定してもよい。
 図5は、想像線6に対して、複数の線L1~L3が全体的に直交するように投影される投影例を示す図である。「全体的に直交する」との表現は、各線L1~L3を全体として見たときには想像線6に対して実質的に直交しているということを意味する。図5の例において、各線L1~L3は想像線6に対して平行となるような線区間を含んでいるが、各線L1~L3を全体として見たときは想像線6に対して直交している。投影内容設定部101は、このような投影がなされるように投影内容を設定してもよい。
 図6は、想像線6に対して、複数の線L1~L3が全体的に平行となるように投影されている投影例を示す図である。投影内容設定部101は、このような投影がなされるように投影内容を設定しない。もし、図6のような投影がなされると、異なる投影物が同時に選択される可能性が高まるからである。すなわち、図6のような投影がなされると、図7に示されているように、人物P1が検知領域DR1に、人物P2が検知領域DR2に同時に検知される場合が生じうる。このような場合、下の階へ行くボタンの選択と上の階へ行くボタンの選択との間で競合が生じてしまい、どちらかのボタンの選択を優先させる等の対策を講じる必要が生じてしまう。このような競合が生じることは望ましくないので、投影内容設定部101は図6のような投影は行わない。
 対照的に、図3~図5に示されているように投影物が投影される場合、競合の問題を極力抑制することができる。このことを、図8および図9を参照して説明する。図8において、想像線5から距離r1の位置には投影物DO1が、距離r2の位置には投影物DO2がそれぞれ投影されている。図8に示されているように人物P3が下の階へ行くボタンを選択しようとした場合、検知センサ3の検知領域DR2(図9を参照)が人物P3により遮られるので、検知センサ3から見て人物P3の背後には検知センサ3が検知できない陰の領域7ができる。ここで、検知センサ3とプロジェクタ2は同じ想像線5上にあるので、プロジェクタ2から投影された光による人物P3の影が陰の領域7に対応して投影面である床面に映される。図8は、図3に対応する図であるが、図4または図5の場合であっても、図3の場合と同様に検知センサ3の陰の領域に対応した影の領域が投影面にできる。このような影の領域ができることにより、隣のレーンを進んで上の階へ行くボタンを選択しようとする人物P4に対して、上の階へ行くボタンの選択ができないことを示唆することが可能となる。これにより、投影物DO1およびDO2が同時に選択される競合の問題を極力抑制することが可能となる。
(受信判定部)
 受信判定部102は、検知センサ3から検知領域の検知信号を受信して、所定の検知領域にオブジェクトが存在するか否かを判定する。より具体的には、受信判定部102は、検知センサ3により検知された信号を検知センサ3から受信して、所定の検知領域にオブジェクトが存在するか否かを判定することにより、表示領域に投影された投影物がオブジェクトであるユーザにより選択されたかを判定する。表示領域にはサブクラスの表示領域が含まれる。例えば、図9に示されているように、表示領域DAには、下の階へ行くボタンが表示された表示領域DA1と、上の階へ行くボタンが表示された表示領域DA2とが含まれる。
 受信判定部102は、検知センサ3から検知領域の検知信号を受信する。検知センサ3としてレーザ測域センサを用いる場合、受信判定部102は、検知センサ3へ1つ又は複数の検知領域の検知信号を要求する要求信号を出力して、検知センサ3からその検知領域の検知信号を受信する。例えば、受信判定部102は、検知領域DR1およびDR2の検知信号を検知センサ3に要求し、各検知領域についての検知信号を受信する。検知センサ3として赤外線センサを用いる場合、各検知領域に対応した赤外線センサを用いて、各検知領域の検知信号を受信する。
 受信判定部102は、表示領域DA1に対応して設けられた検知領域DR1または表示領域DA2に対応して設けられた検知領域DR2にオブジェクトが存在するか否かを判定することにより、表示領域DA1に表示された投影物DO1または表示領域DA2に表示された投影物DO2がユーザに選択されたか否かを判定する。所定の検知領域にオブジェクトが存在するか否かの判定は、オブジェクトが存在しない場合のデータをリファレンスとして用いて、そのリファレンスと検知信号から得られる検知データとの差を検知することにより行うことができる。オブジェクトには、人および車椅子などの電磁波を反射する反射体が含まれる。
 受信判定部102は、受信した検知データに基づいて検知領域内にオブジェクトが存在するかどうかを判定した後、判定結果に応じて所定の処理を行う。受信判定部102は、判定結果に応じて、例えば以下の処理を行う。一例として、受信判定部102は、検知領域DR1またはDR2にオブジェクトを検知した場合、この検知に対応した状態信号を投影内容設定部101へ出力する。また、別の一例として、受信判定部102は、検知領域DR1またはDR2においてオブジェクトが存在しないと判定した場合、現在の投影を継続するため、検知領域DR1またはDR2においてオブジェクトが存在しないことに対応した状態信号を投影内容設定部101へ出力する。また、別の一例として、受信判定部102は、検知領域DR1またはDR2にオブジェクトを検知した場合、この検知に対応した信号を制御信号発信部104へ出力する。
(検知領域設定部)
 検知領域設定部103は、オブジェクトを検知する有効な検知領域を有効検知領域として設定する。検知領域は、2次元領域でも、3次元領域でもよい。外部装置4の制御に関連付けられた投影物がエレベータに向かうユーザに見え易くなるようにするため、表示領域と検知領域の関係が調整されていてもよい。例えば、図9に示されているように、検知領域DR1およびDR2は、それぞれ、エレベータに向かうユーザから見て、ボタンが表示されている表示領域DA1およびDA2の手前の領域を含むように設定されてもよい。このように、検知領域設定部103は、2本の線L1およびL2の間であって、表示領域DA1に表示された投影物が投影される領域の近傍を含む検知領域DR1を有効検知領域として設定するとともに、2本の線L2およびL3の間であって、表示領域DA2に表示された投影物が投影される領域の近傍を含む検知領域DR2を有効検知領域として設定する。検知領域設定部103は、設定した検知領域を表すデータを受信判定部102へ出力し、受信判定部102は入力されたデータに応じた状態信号を投影内容設定部101へ出力する。
(制御信号発信部)
 制御信号発信部104は、受信判定部102から入力される信号の内容に応じて、外部装置4を制御するための信号を外部装置4へ出力する。
 次に、図10Aおよび図10Bを参照して、投影制御装置100のハードウェア構成例について説明する。図10Aおよび図10Bは、何れも投影制御装置100のハードウェア構成例を示す図である。一例として、図10Aに示されているように投影制御装置100は処理回路100aを備え、投影内容設定部101、受信判定部102、検知領域設定部103、および制御信号発信部104の各機能部は、処理回路100aにより実現される。別の例として、図10Bに示されているように投影制御装置100はプロセッサ100bおよびメモリ100cを備え、投影内容設定部101、受信判定部102、検知領域設定部103、および制御信号発信部104の各機能部は、プロセッサ100bがメモリ100cに格納されているプログラムを読み出して実行することにより実現される。
<動作>
 以下、図11および図12を参照して、投影制御装置100および投影制御システムSysの動作について説明する。図11は、投影制御装置100および投影制御システムSysの動作を示すフローチャートであり、図11のフローは例えば不図示のセンサにより所定の領域内にオブジェクトが検知されて待機信号が投影制御装置100に入力されることにより開始される。図12Aから図12Dは、投影制御装置の動作を説明するための図であり、図11のフローチャートにより示された動作のフローを補足的に説明する。
 図11のステップST1において、検知領域設定部103は、検知領域を設定して、設定した検知領域を示すデータを受信判定部102へ出力する。例えば、検知領域設定部103は、検知領域DR1およびDR2を設定して、設定した検知領域DR1およびDR2を示すデータを受信判定部102へ出力する。また、投影内容設定部101は、プロジェクタ2により投影される投影内容を設定する。例えば、投影内容設定部101は、図12Aに示されているような表示がなされるように投影内容を設定する。すなわち、想像線5に対して、距離r1に投影される投影物DO1と、距離r1よりも遠い距離r2に投影される投影物DO2とを含むように投影内容が設定される(図8も参照)。投影物DO1および投影物DO2が複数の線の間に投影されるように、複数の線が投影内容に含まれてもよい。設定された投影内容は、投影制御システムSysのプロジェクタ2へ出力されて、プロジェクタ2により投影がなされる。
 ステップST2において、受信判定部102は、検知センサ3からの信号に基づいて、検知領域DR1またはDR2にオブジェクトが存在するか否かを判定する。すなわち、受信判定部102は、表示領域DA1に表示された投影物または表示領域DA2に表示された投影物の何れがユーザにより選択されたかを判定する。例えば、受信判定部102は、図12Bに示されているように、検知領域DR2にエレベータのユーザが存在するかを判定することにより、表示領域DA2(図9を参照)に表示された上の階へ行くボタンが選択されたかを判定する。
 ステップST2においてNOの場合、処理はステップST1戻る。
 ステップST2においてYESの場合、ステップST3において、検知領域設定部103は投影内容を変更する。例えば、図12Cに示されているように、「エレベータをお呼びします」とのテキストメッセージを表示するように投影内容を変更する。また、図12Cに示されているように、選択されたと判定した上の階へ行くボタンを強調表示するように投影内容を変更する。
 ステップST4において、制御信号発信部104は、外部装置4を制御するための制御信号を外部装置4へ発信する。例えば、図12Bおよび図12Cに示されているように、表示領域DA2(図9を参照)に表示された上の階へ行くボタンが選択されたと判定された場合、制御信号発信部104は、外部装置4としてのエレベータ制御装置へ、上の階へ行く旨の制御信号を発信する。上の階へ行くかごが到着したら、ユーザはそのかごへ登場する(図12D)。
 以上、外部装置4がエレベータの制御装置である場合に即して説明したが、外部装置4は他の装置であってもよい。例えば、外部装置4は、照明装置の制御装置であってもよい。外部装置4が照明装置の制御装置である場合、例えば、表示領域DA1には「ON」の文字が、表示領域DA2には「OFF」の文字が投影される。ユーザは、投影されたONまたはOFFの投影物を選択することにより、照明装置のON/OFFの操作ができる。
 また、ユーザによる選択動作がなされたことをユーザに対して報知するため、選択動作を検知した際に効果音を鳴らしてもよい。
<付記>
 以上で説明した実施形態の種々の側面の一部を、以下にてまとめる。
(付記1)
 付記1の投影制御装置(100)は、投影面に投影する投影物を設定する投影内容設定部(101)を備え、前記投影物は、前記投影物を投影するプロジェクタ(2)と検知領域の検知信号を取得する検知センサ(3)とを結ぶ第1の想像線(5)に対して、第1の距離(r1)に投影される第1の投影物(DO1)と、前記第1の距離よりも遠い第2の距離(r2)に投影される第2の投影物(DO2)とを含む。
(付記2)
 付記2の投影制御装置は、付記1の投影制御装置であって、前記投影物は、第1の線(L1)、第2の線(L2)および第3の線(L3)を更に含み、前記第1の線、前記第2の線および前記第3の線は、前記第1の想像線に対して直交する方向に延びる第2の想像線(6)に対して非平行であり、前記第1の投影物(DO1)は、前記第1の線(L1)および前記第2の線(L2)の間に投影され、前記第2の投影物(DO2)は、前記第2の線(L2)および前記第3の線(L3)の間に投影される。
(付記3)
 付記3の投影制御装置は、付記1または2の投影制御装置であって、前記検知センサ(3)により検知された信号を受信して、投影された投影物がユーザにより選択されたか否かを判定する受信判定部(102)と、外部装置(4)を制御する制御信号を発信することが可能な制御信号発信部(104)と、を更に備え、前記制御信号発信部(104)は、前記第1の投影物または前記第2の投影物が選択されたと判定された場合に、前記第1の投影物または前記第2の投影物が選択されたことに対応する制御信号を前記外部装置へ発信する。
(付記4)
 付記4の投影制御装置は、付記2または付記2に従属する付記3の投影制御装置であって、前記検知領域を設定する検知領域設定部(103)を更に備え、前記検知領域設定部は、前記第1の線および前記第2の線の間であって、前記第1の投影物が投影される領域の近傍を含む領域を第1の検知領域として設定する。
(付記5)
 付記5の投影制御装置は、付記4の投影制御装置であって、前記検知領域設定部は、前記第2の線および前記第3の線の間であって、前記第2の投影物が投影される領域の近傍を含む領域を第2の検知領域として設定する。
(付記6)
 付記6の投影制御システムは、投影面に投影物を投影するプロジェクタ(2)と、検知領域の検知信号を取得する検知センサ(3)と、付記1から5のいずれか1つに記載された投影制御装置(100)と、を備える。
(付記7)
 付記7の投影制御システムは、付記6の投影制御システムであって、前記検知センサ(3)は、前記第1の想像線(5)上であって、前記プロジェクタ(2)と前記投影面の間の位置に配置されている。
(付記8)
 付記8の投影制御方法は、投影面に投影する投影物を設定する投影内容設定部(101)を備えた投影制御装置(100)と、設定された投影物を投影するプロジェクタ(2)とを備えた投影制御システムのための投影制御方法であって、前記投影内容設定部(101)により、前記投影物が、前記投影物を投影するプロジェクタ(2)と検知領域の検知信号を取得する検知センサ(3)とを結ぶ第1の想像線に対して、第1の距離(r1)に投影される第1の投影物と、前記第1の距離よりも遠い第2の距離(r2)に投影される第2の投影物とを含むように前記投影物を設定し、前記プロジェクタ(2)により、設定された投影物を投影する。
 なお、実施形態を組み合わせたり、各実施形態を適宜、変形、省略したりすることが可能である。
 本開示に係る投影制御装置は、例えばエレベータへ制御信号を送信する装置として用いることができる。
 1 データベース装置、2 プロジェクタ、3 検知センサ、4 外部装置、100 投影制御装置、100a 処理回路、100b プロセッサ、100c メモリ、101 投影内容設定部、102 受信判定部、103 検知領域設定部、104 制御信号発信部、Sys 投影制御システム。

Claims (8)

  1.  投影面に投影する投影物を設定する投影内容設定部を備えた投影制御装置であって、
     前記投影物は、前記投影物を投影するプロジェクタと検知領域の検知信号を取得する検知センサとを結ぶ第1の想像線に対して、第1の距離に投影される第1の投影物と、前記第1の距離よりも遠い第2の距離に投影される第2の投影物とを含む、
    投影制御装置。
  2.  前記投影物は、第1の線、第2の線および第3の線を更に含み、
     前記第1の線、前記第2の線および前記第3の線は、前記第1の想像線に対して直交する方向に延びる第2の想像線に対して非平行であり、
     前記第1の投影物は、前記第1の線および前記第2の線の間に投影され、
     前記第2の投影物は、前記第2の線および前記第3の線の間に投影される、
    請求項1に記載の投影制御装置。
  3.  前記検知センサにより検知された信号を受信して、投影された投影物がユーザにより選択されたか否かを判定する受信判定部と、
     外部装置を制御する制御信号を発信することが可能な制御信号発信部と、
    を更に備え、
     前記制御信号発信部は、前記第1の投影物または前記第2の投影物が選択されたと判定された場合に、前記第1の投影物または前記第2の投影物が選択されたことに対応する制御信号を前記外部装置へ発信する、
    請求項2に記載の投影制御装置。
  4.  前記検知領域を設定する検知領域設定部を更に備え、
     前記検知領域設定部は、前記第1の線および前記第2の線の間であって、前記第1の投影物が投影される領域の近傍を含む領域を第1の検知領域として設定する、
    請求項3に記載の投影制御装置。
  5.  前記検知領域設定部は、前記第2の線および前記第3の線の間であって、前記第2の投影物が投影される領域の近傍を含む領域を第2の検知領域として設定する、
    請求項4に記載の投影制御装置。
  6.  投影面に投影物を投影するプロジェクタと、
     検知領域の検知信号を取得する検知センサと、
     請求項1から5のいずれか1項に記載された投影制御装置と、
    を備えた投影制御システム。
  7.  前記検知センサは、前記第1の想像線上であって、前記プロジェクタと前記投影面の間の位置に配置された、
    請求項6に記載された投影制御システム。
  8.  投影面に投影する投影物を設定する投影内容設定部を備えた投影制御装置と、設定された投影物を投影するプロジェクタとを備えた投影制御システムのための投影制御方法であって、
     前記投影内容設定部により、前記投影物が、前記投影物を投影するプロジェクタと検知領域の検知信号を取得する検知センサとを結ぶ第1の想像線に対して、第1の距離に投影される第1の投影物と、前記第1の距離よりも遠い第2の距離に投影される第2の投影物とを含むように前記投影物を設定し、
     前記プロジェクタにより、設定された投影物を投影する、
    投影制御方法。
PCT/JP2021/014561 2021-04-06 2021-04-06 投影制御装置、投影制御システム、および投影制御方法 WO2022215147A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/014561 WO2022215147A1 (ja) 2021-04-06 2021-04-06 投影制御装置、投影制御システム、および投影制御方法
JP2021545749A JP7031071B1 (ja) 2021-04-06 2021-04-06 投影制御装置、投影制御システム、および投影制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/014561 WO2022215147A1 (ja) 2021-04-06 2021-04-06 投影制御装置、投影制御システム、および投影制御方法

Publications (1)

Publication Number Publication Date
WO2022215147A1 true WO2022215147A1 (ja) 2022-10-13

Family

ID=81215090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014561 WO2022215147A1 (ja) 2021-04-06 2021-04-06 投影制御装置、投影制御システム、および投影制御方法

Country Status (2)

Country Link
JP (1) JP7031071B1 (ja)
WO (1) WO2022215147A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体
JP6735954B1 (ja) * 2019-10-29 2020-08-05 三菱電機株式会社 案内システム及び案内方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7031622B2 (ja) * 2019-01-30 2022-03-08 オムロン株式会社 教師データ生成装置、ゲート設定学習システム、教師データ生成方法、及び教師データ生成プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体
JP6735954B1 (ja) * 2019-10-29 2020-08-05 三菱電機株式会社 案内システム及び案内方法

Also Published As

Publication number Publication date
JPWO2022215147A1 (ja) 2022-10-13
JP7031071B1 (ja) 2022-03-07

Similar Documents

Publication Publication Date Title
US6339748B1 (en) Coordinate input system and display apparatus
US20170347076A1 (en) Image projection system and image projection method
US20100134702A1 (en) Projector system
US20080211813A1 (en) Device and Method for Light and Shade Simulation in an Augmented-Reality System
KR20070045188A (ko) 반투명 표면을 갖는 스크린에서 사용하기 위한 사용자 입력장치, 시스템 및 컴퓨터 프로그램
EP2963528B1 (en) Projector device, interactive system, and interactive control method
WO2013118987A1 (en) Control method and apparatus of electronic device using control device
JP2010117917A (ja) 動作検出装置および操作システム
WO2022215147A1 (ja) 投影制御装置、投影制御システム、および投影制御方法
JP2018002428A (ja) かご操作盤
KR101747740B1 (ko) 프로젝터 및 제어 방법
US11379083B2 (en) Position detection device, projector, and position detection method
JP6314672B2 (ja) 表示処理装置、表示処理方法、及びプログラム
JPS60138628A (ja) 画面指示入力装置
US9854204B2 (en) Communication system and method for controlling the same
WO2022215146A1 (ja) 表示制御装置および表示制御方法
JP2016177750A (ja) 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法
CN105468171A (zh) 显示系统及显示系统的显示方法
JPH11271675A (ja) プロジェクターシステム
JP2007135144A (ja) 可視光通信用受信装置
JP5814608B2 (ja) 座標入力装置及びその制御方法、プログラム
KR101330908B1 (ko) 이동 단말기에서 비접촉 센서를 이용한 그리기 기능을구현하는 방법
KR20160107684A (ko) 전자 칠판 시스템
US20170052642A1 (en) Information processing apparatus, information processing method, and storage medium
WO2023021639A1 (ja) 情報処理装置及び検知システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021545749

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21935955

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21935955

Country of ref document: EP

Kind code of ref document: A1