WO2021039313A1 - 投影方法、投影装置、及び、投影システム - Google Patents

投影方法、投影装置、及び、投影システム Download PDF

Info

Publication number
WO2021039313A1
WO2021039313A1 PCT/JP2020/029850 JP2020029850W WO2021039313A1 WO 2021039313 A1 WO2021039313 A1 WO 2021039313A1 JP 2020029850 W JP2020029850 W JP 2020029850W WO 2021039313 A1 WO2021039313 A1 WO 2021039313A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
distance
unit
drawing data
measured
Prior art date
Application number
PCT/JP2020/029850
Other languages
English (en)
French (fr)
Inventor
哲也 西
勇樹 林
啓介 原
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP20857933.4A priority Critical patent/EP4024387A4/en
Priority to US17/637,675 priority patent/US11803109B2/en
Priority to CN202080059909.8A priority patent/CN114342363A/zh
Priority to JP2021542684A priority patent/JP7304591B2/ja
Publication of WO2021039313A1 publication Critical patent/WO2021039313A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25HWORKSHOP EQUIPMENT, e.g. FOR MARKING-OUT WORK; STORAGE MEANS FOR WORKSHOPS
    • B25H7/00Marking-out or setting-out work
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25HWORKSHOP EQUIPMENT, e.g. FOR MARKING-OUT WORK; STORAGE MEANS FOR WORKSHOPS
    • B25H7/00Marking-out or setting-out work
    • B25H7/04Devices, e.g. scribers, for marking
    • B25H7/045Devices, e.g. scribers, for marking characterised by constructional details of the marking elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems

Definitions

  • the present invention relates to a projection method, a projection device, and a projection system.
  • Patent Document 1 discloses a method of displaying an object of a design proposal and object data on a boundary wall surface of a room.
  • the present invention provides a projection method, a projection device, and a projection system that can easily associate a position in drawing data with a position in a projection plane on which drawing data is projected.
  • the projection method is a projection method executed by a projection device for projecting drawing data of a building onto a projection surface of the building under construction, using a ranging unit included in the projection device.
  • a projection device for projecting drawing data of a building onto a projection surface of the building under construction, using a ranging unit included in the projection device.
  • the projection position on the projection plane determined based on the above includes a projection step of projecting the drawing data.
  • the projection device is a projection device, which is either a projection unit that projects drawing data of a building onto a projection surface of the building under construction or two non-parallel straight lines on the projection surface.
  • a distance measuring unit that measures the distance from each of the three or more points located on the projection device that are not aligned in a straight line to the projection device, and the measurement when the distance is measured.
  • To the angle measuring unit that measures the angle of the distance portion the distance measured by the projection unit, and the projection position on the projection surface that is determined based on the angle of the distance measuring portion when the distance is measured.
  • a control unit for projecting the drawing data is provided.
  • the projection system includes the projection device and an operation device for the user to remotely control the projection device.
  • the projection method, projection device, and projection system of the present invention can easily associate a position in drawing data with a position in a projection plane on which drawing data is projected.
  • FIG. 1 is a diagram showing an outline of the operation of the projection system according to the embodiment.
  • FIG. 2 is a block diagram showing a functional configuration of the projection system according to the embodiment.
  • FIG. 3 is an external view of an apparatus constituting the projection system according to the embodiment.
  • FIG. 4 is a flowchart of an operation example 1 of the projection system according to the embodiment.
  • FIG. 5 is a diagram showing coordinate axes of Cartesian coordinates in space.
  • FIG. 6 is a diagram showing a calculation formula of the normal projection vector.
  • FIG. 7 is a diagram showing a space in which the reference line is not drawn on the projection plane.
  • FIG. 8 is a first diagram for explaining a change in the driving speed of the driving unit.
  • FIG. 9 is a second diagram for explaining a change in the driving speed of the driving unit.
  • FIG. 10 is a flowchart of an operation for accepting a reference line designation operation.
  • FIG. 11 is a diagram showing an example of a confirmation image.
  • each figure is a schematic diagram and is not necessarily exactly illustrated. Further, in each figure, substantially the same configuration may be designated by the same reference numerals, and duplicate description may be omitted or simplified.
  • FIG. 1 is a diagram showing an outline of the operation of the projection system according to the embodiment.
  • the projection system 10 includes a projection device 20.
  • the projection device 20 is installed in the space 100 in the building under construction.
  • the projection device 20 projects drawing data, which is at least a part of the architectural design data, on a structure (specifically, a floor, a wall, a ceiling, or the like) constituting the space 100 in the actual size.
  • the drawing data is, for example, data indicating a marking position in space, and a line of light having a length as designed is projected at a position where a user such as a worker who performs a construction work should draw a marking line.
  • the light line is used as a guide for drawing the marking line, and the light line itself may be used as the marking line.
  • the projection system 10 may project a part or all of the architectural design data, and the drawing data may be data other than the data indicating the marking position.
  • the drawing data may include data indicating the installation position of equipment such as a system kitchen or bathtub
  • the projection system 10 may project the installation position of the equipment in actual size.
  • FIG. 2 is a block diagram showing a functional configuration of the projection system 10.
  • FIG. 3 is an external view of the device constituting the projection system 10. As shown in FIGS. 2 and 3, the projection system 10 includes a projection device 20 and an operating device 40. First, the projection device 20 will be described.
  • the projection device 20 is a device that displays drawing data, which is at least a part of architectural design data, on a structure in actual size.
  • the structure is, specifically, a floor, a wall, a ceiling, a pillar, or the like.
  • the projection device 20 is attached to a tripod and installed on the floor, for example.
  • the projection device 20 may be installed on a hanging bolt on the ceiling or on a wall.
  • the projection device 20 includes a communication unit 21, a distance measuring unit 22, a projection unit 23, a control unit 24, a storage unit 25, a driving unit 26, an angle measuring unit 27, and a mounting unit 28 (illustrated in FIG. 3). ) And a housing 29 (shown in FIG. 3).
  • the communication unit 21 is a communication circuit (in other words, a communication module) for the projection device 20 to communicate with the operation device 40.
  • the communication unit 21 performs wireless communication with the operation device 40, but may perform wired communication.
  • the communication standard for communication performed by the communication unit 21 is not particularly limited.
  • the distance measuring unit 22 detects the distance from the projection device 20 to the structure constituting the space 100.
  • the distance measuring unit 22 is, for example, a distance measuring sensor such as a TOF (Time Of Flight) sensor.
  • the distance measuring unit 22 may be another distance measuring sensor such as a distance measuring sensor using a phase difference detection method or a distance measuring sensor using a triangular distance measuring method.
  • the distance measuring unit 22 includes a distance measuring light source 22a and a detection unit 22b.
  • the range-finding light source 22a is a light source that emits light toward a structure.
  • the distance measuring light source 22a is realized by, for example, a light emitting element that emits infrared light, but may be realized by a light emitting element that emits visible light.
  • the ranging unit 22 has a laser pointer function for presenting the current ranging target point to the user. This function is realized by, for example, a light source different from the distance measuring light source 22a, but when the distance measuring light source 22a emits visible light, it may be realized by the distance measuring light source 22a.
  • the distance measuring light source 22a does not necessarily have to be a separate body from the light source 23a of the projection unit 23, and the light source 23a of the projection unit 23 may be used as the distance measuring light source 22a. That is, the distance measuring unit 22 may be a sensor that does not have the distance measuring light source 22a but has only the detecting unit 22b.
  • the detection unit 22b is a light receiving element that detects the reflected light in the structure of the light emitted by the distance measuring light source 22a.
  • the detection unit 22b is realized by a photodiode or the like.
  • the projection unit 23 is a projection module for projecting drawing data on the projection surface 50.
  • the projection unit 23 has a light source 23a and a scanning unit 23b.
  • the projection unit 23 also includes optical components such as a lens and a mirror.
  • the light source 23a is, for example, a laser light source realized by a semiconductor light emitting element.
  • the light source 23a may include a plurality of light emitting elements having different light emitting colors (for example, a red light emitting element, a green light emitting element, and a blue light emitting element), and the light emitting color may be switched.
  • the scanning unit 23b scans the light emitted by the light source 23a on the structure.
  • the scanning unit 23b is realized by, for example, a MEMS (Micro Electro Mechanical Systems) mirror.
  • the control unit 24 is a control device that controls the distance measuring unit 22, the projection unit 23, and the driving unit 26 in order to project drawing data on the projection surface 50.
  • the control unit 24 is realized by, for example, a microcomputer or a processor. Further, the control unit 24 may include a drive circuit for driving the projection unit 23 and a drive circuit for driving the drive unit 26.
  • the storage unit 25 is a storage device that is executed by the control unit 24 and stores drawing data and a control program for projecting the drawing data in actual size.
  • the storage unit 25 is realized by a semiconductor memory or the like.
  • the drive unit 26 is a drive mechanism for changing the direction of the projection device 20 (in other words, the direction and angle of the distance measuring unit 22). More specifically, the drive unit 26 changes the orientation of the housing 29 with reference to the mounting unit 28.
  • the drive unit 26 has a first drive unit 26a for changing the direction of the projection device 20 in the tilt direction, and a second drive unit 26b for changing the direction of the projection device 20 in the pan direction.
  • Each of the first drive unit 26a and the second drive unit 26b is realized by a rotary drive device such as a motor.
  • the drive unit 26 may have a third drive unit for changing the direction of the projection device 20 in the roll direction. Further, the drive unit 26 may have a mechanism having a ball-shaped joint.
  • the angle measuring unit 27 measures the direction of the projection device 20 (in other words, the direction and angle of the distance measuring unit 22). Specifically, the angle measuring unit 27 is an angle sensor that measures the driving amount (that is, the tilt angle and the pan angle) of the driving unit 26. When the drive unit 26 has a third drive unit for changing the direction of the projection device 20 in the roll direction, the angle measuring unit 27 measures the roll angle as the drive amount of the drive unit 26. You may.
  • the mounting portion 28 is a mounting structure for mounting the projection device 20 on a tripod.
  • the projection device 20 may be attached to a hanging bolt on the ceiling.
  • the attachment portion 28 is an attachment structure for attaching the projection device 20 to the ceiling.
  • the housing 29 is a housing that houses the communication unit 21, the distance measuring unit 22, the projection unit 23, the control unit 24, and the storage unit 25.
  • the housing 29 is made of, for example, resin, but may be made of metal.
  • the operation device 40 is a remote controller for the user to remotely control the projection device 20.
  • the operation device 40 is, for example, a dedicated remote controller for the projection device 20.
  • a mobile terminal such as a smartphone or tablet terminal on which a dedicated application program is installed may be used as the operation device 40.
  • the operation device 40 includes an operation reception unit 41, a communication unit 42, a control unit 43, a storage unit 44, and a display unit 45.
  • the operation reception unit 41 is a user interface device that accepts user operations.
  • the operation reception unit 41 is realized by, for example, a hardware button, but may be realized by a touch panel or the like.
  • the communication unit 42 is a communication circuit (in other words, a communication module) for the operation device 40 to communicate with the projection device 20.
  • the communication unit 42 performs wireless communication with the projection device 20, but may perform wired communication.
  • the communication standard for communication performed by the communication unit 42 is not particularly limited.
  • the control unit 43 causes the communication unit 42 to transmit an instruction signal for operating the projection device 20 in response to the operation received by the operation reception unit 41 to the projection device 20.
  • the control unit 43 is realized by, for example, a microcomputer or a processor.
  • the storage unit 44 is a storage device in which the control program executed by the control unit 43 is stored.
  • the storage unit 44 is realized by a semiconductor memory or the like.
  • Architectural design data is also stored in the storage unit 44.
  • the architectural design data is three-dimensional data (more specifically, three-dimensional CAD data) indicating the size and shape of the space 100.
  • the architectural design data also includes drawing data (two-dimensional data) indicating the floor plan of the space 100, drawing data indicating the marking position, and the like.
  • drawing data is also stored in the storage unit 25 of the projection device 20.
  • the display unit 45 displays a screen showing the operating status of the projection device 20 and the like.
  • the display unit 45 is realized by a liquid crystal panel, an organic EL panel, or the like.
  • FIG. 4 is a flowchart of operation example 1 of the projection system 10.
  • FIG. 5 is a diagram showing coordinate axes of Cartesian coordinates in space 100.
  • the coordinate axes shown in FIG. 5 are defined with the position of the projection device 20 (more specifically, a predetermined position around the distance measuring unit 22 and the projection unit 23 in the projection device 20) as the origin O.
  • the projection surface 50 is a floor surface, and two reference lines L1 and L2 are drawn on the floor surface.
  • the two reference lines L1 and L2 are drawn by the user, for example.
  • the two reference lines L1 and L2 are orthogonal to each other, and the position of the intersection of the two reference lines L1 and L2 is the reference point D.
  • the reference point D is a point on which a predetermined point in the drawing data should be projected.
  • the positions of the reference lines L1 and L2 are defined in the drawing data, and can be used for associating the position in the drawing data with the position in the projection surface 50. It is not essential that the two reference lines L1 and L2 are orthogonal to each other, and the two reference lines L1 and L2 may intersect (they may not be parallel).
  • the user installs the projection device 20 in the space 100 and measures the distance from each of the three distance measurement target points (hereinafter, also referred to as measurement points) on the projection surface 50 to the projection device 20 (hereinafter, also referred to as a measurement point). S11).
  • the user may measure the distance from each of at least three distance measurement target points to the projection device 20.
  • the user may measure the distance from each of the three or more distance measurement target points to the projection device 20.
  • the distance measuring unit 22 of the projection device 20 presents the measurement point on the projection surface 50 to the user by a laser pointer.
  • the user drives the drive unit 26 to align the laser pointer with the reference line L1 (or the reference line L2), and in this state, performs a measurement instruction operation for instructing the measurement (save) of the distance.
  • the distance from the measurement point to the projection device 20 is stored in the storage unit 25 together with the pan angle ⁇ and the tilt angle ⁇ when the measurement instruction operation is instructed.
  • the pan angle ⁇ and the tilt angle ⁇ are measured by the angle measuring unit 27. If such an operation is repeated three times by the user, the distance r from each of the three different measurement points on the projection surface 50 to the projection device 20, and the pan angle ⁇ and tilt angle ⁇ at that time are stored in the storage unit 25. Is remembered in.
  • the control unit 24 calculates the Cartesian coordinates (xyz coordinates) of the three measurement points based on the stored information (that is, the distance measurement result) (S12).
  • the distance r from each of the three measurement points stored in the storage unit 25 to the projection device 20, and the polar coordinates of the three measurement points of the pan angle ⁇ and the tilt angle ⁇ at that time are shown, and the control unit 24 shows the polar coordinates.
  • the control unit 24 calculates the orthogonal coordinates of the reference point D based on the orthogonal coordinates of the three measurement points (S13). As shown in FIG. 5, assuming that the three measurement points are the measurement point A, the measurement point B, and the measurement point C, the control unit 24 uses the reference by the calculation formula of the normal projection vector shown in FIG. The coordinates of the point D can be calculated.
  • FIG. 6 is a diagram showing a calculation formula of the normal projection vector. If one of the measurement point A, the measurement point B, and the measurement point C is the same as the reference point D, the process of step S13 is omitted.
  • the control unit 24 determines the distance from the projection device 20 to the projection surface 50 (that is, the plane passing through the measurement point A, the measurement point B, and the measurement point C) and the inclination of the projection surface 50 with respect to the projection device 20. Is calculated (S14).
  • the normal vector n indicates the inclination of the projection surface 50 in Cartesian coordinates, and the length of the normal vector n indicates the distance from the projection device 20 to the projection surface 50. That is, calculating the normal vector is equivalent to calculating the distance from the projection device 20 to the projection surface 50 and the inclination of the projection surface 50 with respect to the projection device 20.
  • control unit 24 causes the projection unit 23 to project drawing data onto the projection surface 50 based on the calculated distance from the projection device 20 to the projection surface 50 and the calculated inclination of the projection surface 50 (S15). ). Specifically, the control unit 24 corrects the distortion of the drawing data according to the calculated inclination of the projection surface 50, and corrects the projection magnification of the drawing data based on the calculated distance to the projection surface 50.
  • the drawing data includes the position information of the reference line. Then, in the control unit 24, the reference lines L1 and L2 in the corrected drawing data overlap with the reference lines L1 and L2 on the projection surface, and the predetermined points of the corrected drawing data are set to the coordinates of the calculated reference point D. (That is, the projection position is determined) so that the corrected drawing data is projected onto the projection surface 50 by the projection unit 23. As a result, the drawing data is projected onto the projection surface 50 in actual size.
  • the projection system 10 uses points on the reference lines L1 and L2 of the projection plane whose positions are defined in the drawing data as measurement points (points whose coordinates are specified). Therefore, the projection system 10 can easily associate the position in the drawing data with the position in the projection surface 50.
  • the two straight lines are two orthogonal reference lines L1 and L2 drawn in advance as marks on the projection surface 50. However, it is assumed that the reference lines L1 and L2 are not drawn on the projection surface 50.
  • FIG. 7 is a diagram showing a space 100 in which the reference lines L1 and L2 are not drawn on the projection surface 50.
  • the two beams are arranged so as to intersect the projection surface 50.
  • the reference point D is the intersection of the center lines indicating the center position of the beam.
  • This center line is a virtual line that is not drawn on the projection surface 50, but is a line whose position is defined in the drawing data.
  • the projection device 20 may indirectly measure the distance to the measurement point E on the center line.
  • the distance measuring unit 22 of the projection device 20 presents the measurement target point on the projection surface 50 to the user with a laser pointer.
  • the user drives the drive unit 26 to align the laser pointer with one end of the beam (for example, point E1), and in this state, performs a measurement instruction operation for instructing distance measurement (save).
  • the distance from the point E1 to the projection device 20 is stored in the storage unit 25 together with the pan angle ⁇ and the tilt angle ⁇ when the measurement instruction operation is instructed.
  • the user drives the drive unit 26 to align the laser pointer with the other end of the beam (for example, point E2), and in this state, performs a measurement instruction operation for instructing distance measurement (save). Then, the distance from the point E2 to the projection device 20 is stored in the storage unit 25 together with the pan angle ⁇ and the tilt angle ⁇ when the measurement instruction operation is instructed.
  • control unit 24 calculates the polar coordinates of the point E1 and the polar coordinates of the midpoint of the polar coordinates of the point E2 as the polar coordinates of the measurement point E.
  • the distance measuring unit 22 measures the distances from each of the point E1 at one end of the beam and the point E2 at the other end of the beam to the projection device 20, and the control unit 24 measures the distances based on the measured distances.
  • the distance from the point E on the center line to the projection device 20 may be indirectly measured by obtaining the distance to the point on the center line by calculation.
  • the beam is an example of a structure. The distance from a point on the center line of a structure other than the beam to the projection device 20 may be indirectly measured.
  • Such a projection system 10 uses a point on the center line whose position is defined in the drawing data as a measurement point (a point whose coordinates are specified), the position in the drawing data and the position in the projection surface 50. Can be easily linked with.
  • the driving speed of the driving unit 26 is v1.
  • the driving speed of the driving unit 26 is v2, which is slower than v1.
  • the control unit 24 drives the drive unit 26 at a slower drive speed as the distance measured by the distance measuring unit 22 becomes longer.
  • the driving speed in the pan direction by the second driving unit 26b is shown by an arrow as an example, but the driving speed in the tilt direction of the first driving unit 26a is also changed in the same manner.
  • the measurement position is less likely to change, so that the user can easily adjust the laser pointer.
  • FIG. 10 is a flowchart of an operation for accepting a reference line designation operation.
  • the display unit 45 of the operation device 40 displays the drawing data (S21), and the operation reception unit 41 accepts the operation of designating the reference line in the displayed drawing data (S22).
  • the control unit 43 causes the communication unit 42 to transmit the designated result to the projection device 20 (S23). If the user specifies which part of the displayed drawing data the reference lines L1 and L2 to be distance-measured correspond to, the projection device 20 recognizes the reference line in the drawing data in the drawing data. Can be easily associated with the position of the above and the position in the projection surface 50.
  • FIG. 11 is a diagram showing an example of such a confirmation image.
  • FIG. 11 is a view of reference lines L1 and L2 drawn on the projection surface 50 from a direction perpendicular to the projection surface 50 and a confirmation image.
  • the confirmation image I is an L-shaped line (L-shaped line passing through the three measurement points) determined by the three measurement points, and is projected by the projection unit 23. That is, the confirmation image is an image of two intersecting line segments.
  • the confirmation image I may be an image showing the positions of the three measurement points, and may be, for example, three circles directly showing the positions of the three measurement points.
  • the confirmation image I may be any image as long as it shows the positions of the three measurement points.
  • the user can easily recognize the three measurement points and the deviations of the reference lines L1 and L2.
  • the distance to the three measurement points is measured again (in other words, the three measurement points).
  • the selection may be redone, but the control unit 24 adjusts the projection position of the confirmation image I so that the positions of the two line segments indicated by the confirmation image I are on the two reference lines. , The projection position of the drawing data may be corrected according to the adjustment result.
  • control unit 24 finely adjusts the projection position of the confirmation image I each time the operation reception unit 41 of the operation device 40 receives an adjustment operation from the user.
  • the operation receiving unit 41 receives the adjustment completion operation from the user.
  • the control unit 24 stores the adjustment amount from the start of the adjustment to the completion of the adjustment in the storage unit 25, and projects the drawing data to the projection unit 23 in consideration of this adjustment amount.
  • the user can project the drawing data onto the projection surface 50 without having to remeasure the distances to the three measurement points.
  • the projection method of projecting the drawing data of the building onto the projection surface of the building under construction uses the distance measuring unit 22 included in the projection device 20, and each of them is a projection surface.
  • a ranging step distance measuring step for measuring the distance from each of three or more points located on any of two non-parallel straight lines on 50 and not aligned to the projection device 20. S11), an angle measurement step for measuring the angle (for example, pan angle and tilt angle) of the distance measuring unit 22 when the distance is measured, the measured distance, and the measurement when the distance is measured.
  • a projection step (S15) for projecting drawing data is included in the projection position on the projection surface 50 determined based on the angle of the distance portion 22.
  • the projection position is determined so that the predetermined point of the drawing data overlaps the intersection of the two straight lines.
  • the projection method further determines the distance from the projection device 20 to the projection surface 50 and the projection surface 50 based on the measured distance and the angle of the distance measuring unit 22 when the distance is measured.
  • the calculation step (S14) for calculating the inclination is included.
  • the drawing data that has been distortion-corrected based on the calculated inclination of the projection surface 50 is brought to the projection position at a projection magnification determined based on the calculated distance from the projection device 20 to the projection surface 50. Project.
  • Such a projection method can project drawing data in actual size.
  • the two straight lines are two orthogonal straight lines drawn in advance on the projection surface 50.
  • the user can visually confirm the two straight lines, so that the measurement points can be easily set on the two straight lines.
  • At least one of the two straight lines is a center line indicating the center position of the structure, which is a virtual center line not drawn on the projection surface 50, and is three or more. At least one of the points is located on the center line.
  • the distance measuring step (S11) the distances from the points at one end of the structure and the points at the other end of the structure to the projection device 20 are measured, and the distance to the point on the center line is measured based on the measured distance. By calculating the distance, the distance from at least one of the three or more points to the projection device 20 is indirectly measured.
  • the user can set the measurement points on the two straight lines even if the two straight lines cannot be visually confirmed.
  • the projection method further drives the drive unit 26 included in the projection device 20 to select any of three or more points as the distance measurement target points, and the angle of the distance measurement unit 22. Includes drive steps (FIGS. 8 and 9) to modify.
  • the speed at which the angle of the ranging unit 22 changes depending on the driving unit 26 varies depending on the distance from the selected ranging target point to the projection device 20.
  • the work of setting the distance target point becomes easy.
  • the projection method further specifies a display step (S21) for displaying the drawing data on the display unit 45 and which part of the displayed drawing data the two straight lines correspond to.
  • the reception step (S22) for accepting the user's operation is included.
  • the projection device 20 recognizes the positions of the two lines in the drawing data according to the user's specification, so that the position in the drawing data and the position in the projection surface 50 can be easily linked. It can be carried out.
  • the projection method further includes a confirmation image projection step ((a) of FIG. 11) for projecting the confirmation image I indicating the positions of the two straight lines.
  • the user can easily confirm the positions of the two straight lines.
  • the confirmation image I is an image of two intersecting line segments.
  • the user can easily confirm the positions of the two straight lines.
  • the projection position of the drawing data can be corrected according to the adjustment result.
  • the projection device 20 has three or more projection units 23 that project drawing data of the building onto the projection surface of the building under construction, and three or more located on any of two non-parallel straight lines on the projection surface 50.
  • a distance measuring unit 22 that measures the distance from each of three or more points that are points but do not line up to the projection device 20, and an angle measuring unit that measures the angle of the distance measuring unit 22 when the distance is measured.
  • 27 and a control unit 24 that causes the projection unit 23 to project drawing data to a projection position on the projection surface 50 that is determined based on the measured distance and the angle of the distance measurement unit 22 when the distance is measured. To be equipped.
  • such a projection device 20 uses points on the reference lines L1 and L2 of the projection surface as measurement points (points whose coordinates are specified). As a result, the position in the drawing data and the position in the projection surface 50 can be easily associated with each other.
  • the projection system 10 includes a projection device 20 and an operation device 40 for the user to remotely control the projection device 20.
  • Such a projection system 10 uses points on the reference lines L1 and L2 of the projection plane as measurement points (points whose coordinates are specified) when the positions of the two lines are defined in the drawing data. As a result, the position in the drawing data and the position in the projection surface 50 can be easily associated with each other.
  • the laser scanning type projection device has been described, but the present invention may be realized as a projection device of another type.
  • the projection device only needs to be able to project at least a part of the architectural design data on the projection surface in actual size.
  • the projection system includes a projection device and an operation device.
  • the projection system may be implemented as a single device.
  • the projection system may be realized as a client-server system, and in this case, a part of the processing described by the projection device in the above embodiment is performed by the server device.
  • the order of processing described in the flowchart of the above embodiment is an example.
  • the order of the plurality of processes may be changed, and the plurality of processes may be executed in parallel.
  • the communication method between the devices in the above embodiment is not particularly limited. Wireless communication may be performed or wired communication may be performed between the devices. Further, wireless communication and wired communication may be combined between the devices. Further, when two devices communicate with each other in the above embodiment, a relay device (not shown) may be interposed between the two devices.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • each component may be realized by hardware.
  • each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.
  • a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.
  • the present invention may be realized as a program for causing a computer to execute a projection method. Further, the present invention may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.
  • Projection system 20 Projection device 22 Distance measurement unit 23 Projection unit 26 Drive unit 27 Angle measurement unit 40 Operation device 45 Display unit 50 Projection surface

Abstract

投影装置が実行する、建物の図面データを建設中の建物の投影面に投影する投影方法は、投影装置が備える測距部を用いて、各々が、投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから投影装置までの距離を計測する測距ステップ(S11)と、計測された距離、及び、当該距離が計測されたときの測距部の角度に基づいて定まる投影面上の投影位置に、図面データを投影する投影ステップ(S15)とを含む。

Description

投影方法、投影装置、及び、投影システム
 本発明は、投影方法、投影装置、及び、投影システムに関する。
 従来、スクリーンなどに画像を投影することができる投影装置が知られている。投影装置に関連する技術として、特許文献1には、設計案のオブジェクト及びオブジェクトデータを部屋の境界壁面に表示する方法が開示されている。
特許第6244008号公報
 特許文献1に記載の方法においては、基準装置及び設計案との対応付けは、既知の参照オブジェクトを用いて行われる。したがって、複数の参照オブジェクトをあらかじめ内部空間の目立つ位置に配置する必要がある。
 本発明は、図面データ内の位置と、図面データが投影される投影面内の位置との紐づけを容易に行うことができる投影方法、投影装置、及び、投影システムを提供する。
 本発明の一態様に係る投影方法は、投影装置が実行する、建物の図面データを建設中の前記建物の投影面に投影する投影方法であって、前記投影装置が備える測距部を用いて、各々が、前記投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから前記投影装置までの距離を計測する測距ステップと、前記距離が計測されたときの前記測距部の角度を計測する測角ステップと、計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて定まる前記投影面上の投影位置に、前記図面データを投影する投影ステップとを含む。
 本発明の一態様に係る投影装置は、投影装置であって、建物の図面データを建設中の前記建物の投影面に投影する投影部と、前記投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから前記投影装置までの距離を計測する測距部と、前記距離が計測されたときの前記測距部の角度を計測する測角部と、前記投影部に、計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて定まる前記投影面上の投影位置へ前記図面データを投影させる制御部とを備える。
 本発明の一態様に係る投影システムは、前記投影装置と、ユーザが前記投影装置を遠隔操作するための操作装置とを備える。
 本発明の投影方法、投影装置、及び、投影システムは、図面データ内の位置と、図面データが投影される投影面内の位置との紐づけを容易に行うことができる。
図1は、実施の形態に係る投影システムの動作の概要を示す図である。 図2は、実施の形態に係る投影システムの機能構成を示すブロック図である。 図3は、実施の形態に係る投影システムを構成する装置の外観図である。 図4は、実施の形態に係る投影システムの動作例1のフローチャートである。 図5は、空間における直交座標の座標軸を示す図である。 図6は、正射影ベクトルの計算式を示す図である。 図7は、基準線が投影面に描かれていない空間を示す図である。 図8は、駆動部の駆動速度の変更を説明するための第一の図である。 図9は、駆動部の駆動速度の変更を説明するための第二の図である。 図10は、基準線の指定操作を受け付ける動作のフローチャートである。 図11は、確認用画像の一例を示す図である。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 (実施の形態)
 [概要]
 まず、実施の形態に係る投影システムの概要について説明する。図1は、実施の形態に係る投影システムの動作の概要を示す図である。
 実施の形態に係る投影システム10は、投影装置20を備える。投影装置20は、建築中の建物内の空間100内に設置される。投影装置20は、空間100を構成する構造物(具体的には、床、壁、または、天井など)に建築設計データの少なくとも一部である図面データを実寸大で投影する。図面データは、例えば、空間における墨出し位置を示すデータであり、建築作業を行う作業者などのユーザが墨出し線を引くべき位置に設計通りの長さの光のラインが投影される。
 これにより、ユーザは投影された光のラインをなぞるだけで容易に墨出し線を引くことができる。なお、光のラインが墨出し線を引くためのガイドとして使用されることは必須ではなく、光のラインそのものが墨出し線として用いられてもよい。
 なお、投影システム10は、建築設計データの一部または全部を投影できればよく、図面データは、墨出し位置を示すデータ以外のデータであってもよい。例えば、図面データにシステムキッチンまたはバスタブなどの設備の設置位置を示すデータが含まれる場合には、投影システム10は、設備の設置位置を実寸で投影してもよい。
 [構成]
 次に、実施の形態に係る投影装置の構成について説明する。図2は、投影システム10の機能構成を示すブロック図である。図3は、投影システム10を構成する装置の外観図である。図2及び図3に示されるように、投影システム10は、投影装置20と、操作装置40とを備える。まず、投影装置20について説明する。
 投影装置20は、建築設計データの少なくとも一部である図面データを構造物に実寸で表示する装置である。構造物は、具体的には、床、壁、天井、または、柱などである。投影装置20は、例えば、三脚に取り付けられて床に設置される。投影装置20は、天井の吊りボルトに設置されてもよいし、壁に設置されてもよい。投影装置20は、通信部21と、測距部22と、投影部23と、制御部24と、記憶部25と、駆動部26と、測角部27と、取付部28(図3に図示)と、筐体29(図3に図示)とを備える。
 通信部21は、投影装置20が操作装置40と通信を行うための通信回路(言い換えれば、通信モジュール)である。通信部21は、操作装置40と無線通信を行うが、有線通信を行ってもよい。通信部21が行う通信の通信規格については特に限定されない。
 測距部22は、投影装置20から空間100を構成する構造物までの距離を検知する。測距部22は、例えば、TOF(Time Of Flight)センサなどの測距センサである。測距部22は、位相差検出方式を用いた測距センサ、または、三角測距方式を用いた測距センサなど、その他の測距センサであってもよい。測距部22は、測距用光源22a、及び、検知部22bを有する。
 測距用光源22aは、構造物に向けて光を発する光源である。測距用光源22aは、例えば、赤外光を発する発光素子によって実現されるが、可視光を発する発光素子によって実現されてもよい。なお、後述のように、測距部22は、現在の測距対象点をユーザに提示するためのレーザポインタ機能を有している。この機能は、例えば、測距用光源22aとは別の光源によって実現されるが、測距用光源22aが可視光を発する場合には、測距用光源22aによって実現されてもよい。
 また、測距用光源22aは、必ずしも投影部23が有する光源23aと別体である必要はなく、投影部23が有する光源23aが測距用光源22aとして用いられてもよい。つまり、測距部22は、測距用光源22aを有しておらず、検知部22bのみを有するセンサであってもよい。
 検知部22bは、測距用光源22aが発した光の構造物における反射光を検知する受光素子である。検知部22bは、フォトダイオードなどによって実現される。
 投影部23は、図面データを投影面50に投影するための投影モジュールである。投影部23は、光源23a、及び、走査部23bを有する。なお、図示されないが投影部23は、その他に、レンズ、ミラー等の光学部品などを含む。
 光源23aは、例えば、半導体発光素子によって実現されるレーザ光源である。なお、光源23aは、発光色が異なる複数の発光素子(例えば、赤色発光素子、緑色発光素子、及び、青色発光素子)を含み、発光色を切り替えられる構成であってもよい。
 走査部23bは、光源23aが発する光を構造物上で走査する。走査部23bは、例えば、MEMS(Micro Electro Mechanical Systems)ミラーによって実現される。
 制御部24は、投影面50に図面データを投影するために、測距部22、投影部23、及び、駆動部26を制御する制御装置である。制御部24は、例えば、マイクロコンピュータ、または、プロセッサによって実現される。また、制御部24には、投影部23を駆動するための駆動回路、及び、駆動部26を駆動するための駆動回路が含まれてもよい。
 記憶部25は、制御部24によって実行される、図面データ、及び、図面データを実寸で投影するための制御プログラムが記憶された記憶装置である。記憶部25は、半導体メモリなどによって実現される。
 駆動部26は、投影装置20の向き(言い換えれば、測距部22の向き、角度)を変更するための駆動機構である。駆動部26は、より詳細には、取付部28を基準に筐体29の向きを変更する。駆動部26は、投影装置20の向きをチルト方向に変更するための第一駆動部26aと、投影装置20の向きをパン方向に変更するための第二駆動部26bとを有する。第一駆動部26a、及び、第二駆動部26bのそれぞれは、モータなどの回転駆動装置によって実現される。なお、駆動部26は、投影装置20の向きをロール方向に変更するための第三駆動部を有していてもよい。また、駆動部26は、ボール状の関節を有するような機構であってもよい。
 測角部27は、投影装置20の向き(言い換えれば、測距部22の向き、角度)を計測する。測角部27は、具体的には、駆動部26の駆動量(つまり、チルト角及びパン角)を計測する角度センサである。なお、駆動部26が、投影装置20の向きをロール方向に変更するための第三駆動部を有している場合、測角部27は、駆動部26の駆動量として、ロール角を計測してもよい。
 取付部28は、投影装置20を三脚に取り付けるための取り付け構造である。なお、投影装置20は、天井の吊りボルトに取り付けられてもよく、この場合、取付部28は、投影装置20を天井に取り付けるための取り付け構造である。
 筐体29は、通信部21、測距部22、投影部23、制御部24、及び、記憶部25を収容する筐体である。筐体29は、例えば、樹脂によって形成されるが、金属によって形成されてもよい。
 次に、操作装置40について説明する。操作装置40は、ユーザが投影装置20を遠隔操作するためのリモートコントローラである。操作装置40は、例えば、投影装置20の専用リモートコントローラである。専用のアプリケーションプログラムがインストールされたスマートフォンまたはタブレット端末などの携帯端末が操作装置40として用いられてもよい。操作装置40は、具体的には、操作受付部41と、通信部42と、制御部43と、記憶部44と、表示部45とを備える。
 操作受付部41は、ユーザの操作を受け付けるユーザインターフェース装置である。操作受付部41は、例えば、ハードウェアボタンによって実現されるが、タッチパネルなどによって実現されてもよい。
 通信部42は、操作装置40が投影装置20と通信を行うための通信回路(言い換えれば、通信モジュール)である。通信部42は、投影装置20と無線通信を行うが、有線通信を行ってもよい。通信部42が行う通信の通信規格については特に限定されない。
 制御部43は、操作受付部41によって受け付けられた操作に応じて投影装置20を動作させるための指示信号を通信部42に投影装置20へ送信させる。制御部43は、例えば、マイクロコンピュータ、または、プロセッサによって実現される。
 記憶部44は、制御部43によって実行される制御プログラムが記憶された記憶装置である。記憶部44は、半導体メモリなどによって実現される。記憶部44には、建築設計データも記憶される。
 建築設計データは、空間100の大きさ、及び、形状を示す3次元データ(より具体的には、3次元CADデータ)である。建築設計データには、空間100の間取りを示す図面データ(2次元データ)、及び、墨出し位置を示す図面データなども含まれる。なお、建築設計データのうち少なくとも図面データは、投影装置20の記憶部25にも記憶される。
 表示部45は、投影装置20の動作状況などを示す画面を表示する。表示部45は、液晶パネルまたは有機ELパネルなどによって実現される。
 [動作例1]
 図面データを正確に投影するためには、図面データ内の位置と投影面50内の位置との紐づけが重要となる。このような位置の紐付けるための処理を含む、投影システム10の動作例1について説明する。図4は、投影システム10の動作例1のフローチャートである。
 なお、以下の動作例1の説明では、空間100において、図5に示されるように直交座標の座標軸が設定される。図5は、空間100における直交座標の座標軸を示す図である。図5に示される座標軸は、投影装置20の位置(より詳細には、投影装置20内の測距部22及び投影部23の周辺の所定位置)を原点Oとして定められている。
 また、以下の動作例1の説明において、投影面50は、床面であり、床面には2つの基準線L1、L2が描かれている。2つの基準線L1、L2は、例えば、ユーザによって描かれる。2つの基準線L1、L2は、例えば、直交し、2つの基準線L1、L2の交点の位置は、基準点Dである。基準点Dは、図面データ中の所定点が投影されるべき点である。なお、基準線L1、L2は、図面データ内で位置が規定されており、図面データ内の位置と投影面50内の位置との紐づけに利用できる。2つの基準線L1、L2が直交していることは必須ではなく、2つの基準線L1、L2は交差していればよい(平行でなければよい)。
 まず、ユーザは、投影装置20を空間100に設置し、投影面50上の3つの測距対象点(以下、計測点とも記載される)のそれぞれから投影装置20までの距離の計測を行う(S11)。なお、ユーザは、少なくとも3つの測距対象点のそれぞれから投影装置20までの距離の計測を行えばよい。ユーザは、3つ以上の測距対象点のそれぞれから投影装置20までの距離の計測を行ってもよい。
 例えば、投影装置20の測距部22は、投影面50上の計測点をレーザポインタによってユーザに提示している。ユーザは、駆動部26を駆動させてレーザポインタを基準線L1(または基準線L2)上に合わせ、この状態で距離の計測(保存)を指示する計測指示操作を行う。そうすると、計測点から投影装置20までの距離が、計測指示操作が指示されたときのパン角φ及びチルト角θと合わせて記憶部25に記憶される。なお、パン角φ及びチルト角θは、測角部27によって計測される。ユーザによってこのような作業が3度繰り返されれば、投影面50上の互いに異なる3つの計測点それぞれから投影装置20までの距離r、並びに、そのときのパン角φ及びチルト角θが記憶部25に記憶される。
 次に、制御部24は、記憶された情報(つまり、距離の計測結果)に基づいて、3つの計測点の直交座標(xyz座標)を算出する(S12)。記憶部25に記憶された3つの計測点それぞれから投影装置20までの距離r、及び、そのときのパン角φ及びチルト角θ3つの計測点の極座標を示しており、制御部24は、この極座標を以下の式1に基づいて、直交座標(xyz座標)に変換することができる。
Figure JPOXMLDOC01-appb-M000001
 次に、制御部24は、3つの計測点の直交座標に基づいて、基準点Dの直交座標を算出する(S13)。図5に示されるように、3つの計測点を計測点A、計測点B、及び、計測点Cとすると、制御部24は、図6に示される正射影ベクトルの計算式に基づいて、基準点Dの座標を算出することができる。図6は、正射影ベクトルの計算式を示す図である。なお、計測点A、計測点B、及び、計測点Cのうちの一つが基準点Dと同じ点であるような場合には、ステップS13の処理は省略される。
 次に、制御部24は、投影装置20から投影面50(つまり、計測点A、計測点B、及び、計測点Cを通る平面)までの距離、及び、投影装置20に対する投影面50の傾きを算出する(S14)。投影面50の方程式をax+by+cz=dとし、計測点Aの座標を(x、y、z)、計測点Bの座標を(x、y、z)、計測点Cの座標を(x、y、z)とすると、下記の式2(行列式)が成立する。制御部24は、この式2を式3のように変形することで、投影面50の法線ベクトルn=(a,b,c)を算出する。法線ベクトルnは、直交座標における投影面50の傾きを示し、法線ベクトルnの長さは、投影装置20から投影面50までの距離を示す。つまり、法線ベクトルを算出することは、投影装置20から投影面50までの距離、及び、投影装置20に対する投影面50の傾きを算出することと等価である。
Figure JPOXMLDOC01-appb-M000002
 次に、制御部24は、算出された投影装置20から投影面50までの距離、及び、算出された投影面50の傾きに基づいて図面データを投影部23に投影面50へ投影させる(S15)。制御部24は、具体的には、算出された投影面50の傾きに応じて図面データの歪みを補正し、算出された投影面50までの距離に基づいて図面データの投影倍率を補正する。
 また、図面データには、基準線の位置情報が含まれる。そして、制御部24は、補正後の図面データ中の基準線L1、L2が投影面の基準線L1、L2と重なり、かつ、算出された基準点Dの座標に補正後の図面データの所定点が重なるように(つまり、投影位置を決定して)、補正後の図面データを投影部23に投影面50へ投影させる。これにより、図面データは実寸で投影面50に投影される。
 以上説明したように、投影システム10は、図面データにおいて位置が規定されている、投影面の基準線L1、L2上の点を計測点(座標が特定される点)として使用する。このため、投影システム10は、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 [変形例1]
 上記動作例1では、2本の直線は、投影面50上にあらかじめ目印として描かれた直交する2本の基準線L1、L2であった。しかしながら、基準線L1、L2が投影面50に描かれていない場合も想定される。図7は、基準線L1、L2が投影面50に描かれていない空間100を示す図である。
 図7の例では、例えば、投影面50に2つの梁が交差するように配置される。基準点Dは、梁の中心位置を示す中心線の交点となる。この中心線は、投影面50に描かれていない仮想的な線であるが、図面データにおいて位置が規定されている線である。
 このように、基準線L1、L2が投影面50に描かれていない場合には、投影装置20は、中心線上の計測点Eまでの距離を間接的に計測してもよい。
 例えば、投影装置20の測距部22は、投影面50上の計測対象点をレーザポインタによってユーザに提示する。ユーザは、駆動部26を駆動させてレーザポインタを梁の一端(例えば、点E1)に合わせ、この状態で距離の計測(保存)を指示する計測指示操作を行う。そうすると、点E1から投影装置20までの距離が、計測指示操作が指示されたときのパン角φ及びチルト角θと合わせて記憶部25に記憶される。
 同様に、ユーザは、駆動部26を駆動させてレーザポインタを梁の他端(例えば、点E2)に合わせ、この状態で距離の計測(保存)を指示する計測指示操作を行う。そうすると、点E2から投影装置20までの距離が、計測指示操作が指示されたときのパン角φ及びチルト角θと合わせて記憶部25に記憶される。
 その後、制御部24(または測距部22)は、点E1の極座標と、点E2の極座標の中点の極座標を計測点Eの極座標として算出する。
 このように、測距部22は、梁の一端における点E1、及び、梁の他端における点E2のそれぞれから投影装置20までの距離を計測し、制御部24は、計測した距離に基づいて中心線上の点までの距離を計算によって求めることにより、中心線上の点Eから投影装置20までの距離を間接的に計測してもよい。なお、梁は、構造物の一例である。梁以外の他の構造物の中心線上の点から投影装置20までの距離が間接的に計測されてもよい。
 このような投影システム10は、図面データにおいて位置が規定されている、中心線上の点を計測点(座標が特定される点)として使用するため、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 [変形例2]
 ところで、測距部22のレーザポインタを基準線L1、L2上の点に合わせるとき(言い換えれば、ユーザが測距対象点を選択するとき)には、駆動部26によって測距部22の向きが変更される。このとき、測距部22は、測距対象点までの距離を常時計測し、制御部24は、駆動部26の回転駆動速度を、測距部22が計測した距離に応じて変更してもよい。つまり、駆動部26によって投影装置20の向きが変わる速度は、選択されている測距対象点から投影装置20までの距離に応じて異なってもよい。図8及び図9は、駆動部26の駆動速度の変更を説明するための図である。
 図8に示されるように、測距部22の計測する距離が距離r1であるときには、駆動部26の駆動速度は、v1である。これに対し、図9に示されるように、測距部22が計測する距離が距離r1よりも長い距離r2であるときには、駆動部26の駆動速度は、v1よりも遅いv2となる。このように制御部24は、測距部22によって計測されている距離が長いほど、駆動部26を遅い駆動速度で駆動させる。言い換えれば、制御部24は、測距部22によって計測されている距離が長いほど、測距部22の向きが変わる速度を遅くする。なお、図8では、一例として第二駆動部26bによるパン方向の駆動速度が矢印で図示されているが、第一駆動部26aのチルト方向の駆動速度についても同様に変更される。
 これにより、測距部22によって計測されている距離が長いときに、測定位置が変化しにくくなるため、ユーザがレーザポインタを合わせる作業が容易になる。
 [変形例3]
 巨大な建物内の空間100は大きいため、ユーザは、空間100内で投影装置20の位置を変えて図面データを投影する、という作業を繰り返す必要がある。空間100内に同じような構造の場所がたくさんあるような場合、動作例1のような動作だけでは、図面データ内の位置と投影面50内の位置との紐付けが難しい場合がある。例えば、正しい紐付けを行うために膨大な計算を行わなければならない場合がある。
 このような場合、ユーザは操作装置40へ作業中の場所を入力することで、作業中の場所(例えば、測距対象の基準線L1、L2の位置など)を投影装置20に指定してもよい。図10は、基準線の指定操作を受け付ける動作のフローチャートである。
 図10に示されるように、操作装置40の表示部45は、図面データを表示し(S21)、操作受付部41は表示中の図面データ内の基準線の指定操作を受け付ける(S22)。制御部43は通信部42に指定結果を投影装置20へ送信させる(S23)。ユーザによって、測距対象の基準線L1、L2が表示された図面データのどの部分に相当するかが指定されれば、投影装置20は図面データ内の基準線を認識することで、図面データ内の位置と投影面50内の位置との紐付けを容易に行うことができる。
 [変形例4]
 上述のように3つの計測点は、測距部22のレーザポインタ機能などを利用してユーザが選択する。このため、投影面50に描かれた基準線とずれてしまう場合がある。そこで、ユーザが3つの計測点を選択した後に、選択した3つの計測点の位置を示す確認用画像が投影されてもよい。図11は、このような確認用画像の一例を示す図である。図11は、投影面50に垂直な方向から投影面50に描かれた基準線L1、L2と、確認用画像とを見た図である。
 図11に示されるように、確認用画像Iは、3つの計測点によって定まるL字線(3つの計測点を通るL字線)であり、投影部23によって投影される。つまり、確認用画像は、交差する2つの線分の画像である。なお、確認用画像Iは、3つの計測点の位置を示す画像であればよく、例えば、3つの計測点の位置を直接的に示す3つの丸印などであってもよい。確認用画像Iは、3つの計測点の位置を示すのであればどのような画像であってもよい。
 図11の(a)に示されるように、確認用画像Iによれば、ユーザは、3つの計測点と基準線L1、L2のずれとを容易に認識することができる。
 ここで、図11の(a)のように、3つの計測点と基準線L1、L2とがずれている場合には、もう一度3つの計測点までの距離の計測(言い換えれば、3つの計測点の選択)がやり直されてもよいが、制御部24は、確認用画像Iによって示される2本の線分の位置が2本の基準線上にくるように確認用画像Iの投影位置を調整し、調整結果に応じて図面データの投影位置を補正してもよい。
 例えば、制御部24は、操作装置40の操作受付部41がユーザから調整操作を受け付けるごとに確認用画像Iの投影位置を微調整する。微調整が繰り返された結果、図11の(b)のように確認用画像が基準線L1、L2に重なると、操作受付部41は、ユーザから調整完了操作を受け付ける。制御部24は、調整開始から調整完了までの調整量を記憶部25に記憶しておき、この調整量を考慮して図面データを投影部23に投影させる。これにより、ユーザは、3つの計測点までの距離の計測をやり直すことなく、図面データを投影面50に投影することができる。
 [効果等]
 以上説明したように、投影装置20が実行する、建物の図面データを建設中の建物の投影面に投影する投影方法は、投影装置20が備える測距部22を用いて、各々が、投影面50上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから投影装置20までの距離を計測する測距ステップ(S11)と、距離が計測されたときの測距部22の角度(例えば、パン角及びチルト角)を計測する測角ステップと、計測された距離、及び、当該距離が計測されたときの測距部22の角度に基づいて定まる投影面50上の投影位置に、図面データを投影する投影ステップ(S15)とを含む。
 このような投影方法は、図面データ内で2本の線の位置が規定されているときには、投影面の基準線L1、L2上の点を計測点(座標が特定される点)として使用することで、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 また、投影位置は、2本の直線の交点に図面データの所定点が重なるように定められる。
 このような投影方法は、2本の直線の交点の位置を利用することで、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 また、投影方法は、さらに、計測された距離、及び、当該距離が計測されたときの測距部22の角度に基づいて、投影装置20から投影面50までの距離、及び、投影面50の傾きを算出する算出ステップ(S14)を含む。投影ステップ(S15)では、算出された投影面50の傾きに基づいて歪み補正された図面データを、算出された投影装置20から投影面50までの距離に基づいて定まる投影倍率で、投影位置に投影する。
 このような投影方法は、図面データを実寸で投影することができる。
 また、2本の直線は、投影面50上にあらかじめ描かれた直交する2本の直線である。
 このような投影方法では、ユーザは、2本の直線を目視で確認できるため、容易に2本の直線上に計測点を設定することができる。
 また、変形例1では、2本の直線の少なくとも1つは、構造物の中心位置を示す中心線であって、投影面50に描かれていない仮想的な中心線であり、3つ以上の点の少なくとも1つは、中心線上に位置する。測距ステップ(S11)においては、構造物の一端における点、及び、構造物の他端における点のそれぞれから投影装置20までの距離を計測し、計測した距離に基づいて中心線上の点までの距離を計算によって求めることにより、3つ以上の点の少なくとも1つから投影装置20までの距離を間接的に計測する。
 このような投影方法では、ユーザは、2本の直線を目視で確認できない場合も、2本の直線上に計測点を設定することができる。
 また、変形例2では、投影方法は、さらに、3つ以上の点のいずれかを測距対象点として選択するために、投影装置20が備える駆動部26を駆動させて測距部22の角度を変更する駆動ステップ(図8及び図9)を含む。駆動部26によって測距部22の角度が変わる速度は、選択されている測距対象点から投影装置20までの距離に応じて異なる。
 このような投影方法によれば、測距部22によって計測されている距離が長いほど、測距部22の角度が変わる速度を遅くすることで、測定位置が変化しにくくなるため、ユーザが測距対象点を設定する作業が容易になる。
 また、変形例3では、投影方法は、さらに、図面データを表示部45に表示する表示ステップ(S21)と、2本の直線が、表示された図面データのどの部分に相当するかを指定するユーザの操作を受け付ける受付ステップ(S22)とを含む。
 このような投影方法は、ユーザの指定によって投影装置20は図面データ内の2本の線の位置を認識することで、図面データ内の位置と投影面50内の位置との紐付けを容易に行うことができる。
 また、変形例4では、投影方法は、さらに、2本の直線の位置を示す確認用画像Iを投影する確認用画像投影ステップ(図11の(a))を含む。
 このような投影方法によれば、ユーザは、容易に2本の直線の位置を確認することができる。
 また、変形例4では、確認用画像Iは、交差する2つの線分の画像である。
 このような投影方法によれば、ユーザは、容易に2本の直線の位置を確認することができる。
 また、変形例4では、投影面50には、2本の基準線があらかじめ描かれ、投影方法は、さらに、確認用画像Iによって示される2本の直線の位置が2本の基準線上にくるように確認用画像Iの投影位置を調整する調整ステップ(図11の(b))を含む。
 このような投影方法は、調整結果に応じて図面データの投影位置を補正することができる。
 また、投影装置20は、建物の図面データを建設中の建物の投影面に投影する投影部23と、投影面50上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから投影装置20までの距離を計測する測距部22と、距離が計測されたときの測距部22の角度を計測する測角部27と、投影部23に、計測された距離、及び、当該距離が計測されたときの測距部22の角度に基づいて定まる投影面50上の投影位置へ図面データを投影させる制御部24とを備える。
 このような投影装置20は、図面データ内で2本の線の位置が規定されているときには、投影面の基準線L1、L2上の点を計測点(座標が特定される点)として使用することで、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 また、投影システム10は、投影装置20と、ユーザが投影装置20を遠隔操作するための操作装置40とを備える。
 このような投影システム10は、図面データ内で2本の線の位置が規定されているときには、投影面の基準線L1、L2上の点を計測点(座標が特定される点)として使用することで、図面データ内の位置と投影面50内の位置との紐づけを容易に行うことができる。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
 例えば、上記実施の形態では、レーザ走査方式の投影装置について説明されたが、本発明は、他の方式の投影装置として実現されてもよい。投影装置は、建築設計データの少なくとも一部を実寸で投影面に投影できればよい。
 また、上記実施の形態において、投影システムは、投影装置と、操作装置とを備えた。しかしながら、投影システムは、単一の装置として実現されてもよい。また、投影システムは、クライアントサーバシステムとして実現されてもよく、この場合、上記実施の形態で投影装置が行うと説明された処理の一部がサーバ装置によって行われる。
 また、上記実施の形態のフローチャートで説明された処理の順序は、一例である。複数の処理の順序は変更されてもよいし、複数の処理は並行して実行されてもよい。
 また、上記実施の形態における装置間の通信方法については特に限定されるものではない。装置間では、無線通信が行われてもよいし、有線通信が行われてもよい。また、装置間では、無線通信及び有線通信が組み合わされてもよい。また、上記実施の形態において2つの装置が通信を行う場合、2つの装置間には図示されない中継装置が介在してもよい。
 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 例えば、本発明は、投影方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
 10 投影システム
 20 投影装置
 22 測距部
 23 投影部
 26 駆動部
 27 測角部
 40 操作装置
 45 表示部
 50 投影面

Claims (12)

  1.  投影装置が実行する、建物の図面データを建設中の前記建物の投影面に投影する投影方法であって、
     前記投影装置が備える測距部を用いて、各々が、前記投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから前記投影装置までの距離を計測する測距ステップと、
     前記距離が計測されたときの前記測距部の角度を計測する測角ステップと、
     計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて定まる前記投影面上の投影位置に、前記図面データを投影する投影ステップとを含む
     投影方法。
  2.  前記投影位置は、前記2本の直線の交点に前記図面データの所定点が重なるように定められる
     請求項1に記載の投影方法。
  3.  さらに、計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて、前記投影装置から前記投影面までの距離、及び、前記投影面の傾きを算出する算出ステップを含み、
     前記投影ステップでは、算出された前記投影面の傾きに基づいて歪み補正された前記図面データを、算出された前記投影装置から前記投影面までの距離に基づいて定まる投影倍率で、前記投影位置に投影する
     請求項1または2に記載の投影方法。
  4.  前記2本の直線は、前記投影面上にあらかじめ描かれた直交する2本の直線である
     請求項1~3のいずれか1項に記載の投影方法。
  5.  前記2本の直線の少なくとも1つは、構造物の中心位置を示す中心線であって、前記投影面に描かれていない仮想的な中心線であり、
     前記3つ以上の点の少なくとも1つは、前記中心線上に位置し、
     前記測距ステップにおいては、前記構造物の一端における点、及び、前記構造物の他端における点のそれぞれから前記投影装置までの距離を計測し、計測した距離に基づいて前記中心線上の点までの距離を計算によって求めることにより、前記3つ以上の点の少なくとも1つから前記投影装置までの距離を間接的に計測する
     請求項1~4のいずれか1項に記載の投影方法。
  6.  さらに、前記3つ以上の点のいずれかを測距対象点として選択するために、前記投影装置が備える駆動部を駆動させて前記測距部の角度を変更する駆動ステップを含み、
     前記駆動部によって前記測距部の角度が変わる速度は、選択されている前記測距対象点から前記投影装置までの距離に応じて異なる
     請求項1~5のいずれか1項に記載の投影方法。
  7.  さらに、
     前記図面データを表示部に表示する表示ステップと、
     前記2本の直線が、表示された前記図面データのどの部分に相当するかを指定するユーザの操作を受け付ける受付ステップとを含む
     請求項1~6のいずれか1項に記載の投影方法。
  8.  さらに、前記2本の直線の位置を示す確認用画像を投影する確認用画像投影ステップを含む
     請求項1~7のいずれか1項に記載の投影方法。
  9.  前記確認用画像は、交差する2つの線分の画像である
     請求項8に記載の投影方法。
  10.  前記投影面には、2本の基準線があらかじめ描かれ、
     前記投影方法は、さらに、前記確認用画像によって示される前記2本の直線の位置が前記2本の基準線上にくるように前記確認用画像の投影位置を調整する調整ステップを含む
     請求項8または9に記載の投影方法。
  11.  投影装置であって、
     建物の図面データを建設中の前記建物の投影面に投影する投影部と、
     前記投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから前記投影装置までの距離を計測する測距部と、
     前記距離が計測されたときの前記測距部の角度を計測する測角部と、
     前記投影部に、計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて定まる前記投影面上の投影位置へ前記図面データを投影させる制御部とを備える
     投影装置。
  12.  投影装置と、
     ユーザが前記投影装置を遠隔操作するための操作装置とを備え、
     前記投影装置は、
     建物の図面データを建設中の前記建物の投影面に投影する投影部と、
     前記投影面上の平行でない2本の直線のいずれかの上に位置する3つ以上の点であって一直線に並ばない3つ以上の点のそれぞれから前記投影装置までの距離を計測する測距部と、
     前記距離が計測されたときの前記測距部の角度を計測する測角部と、
     前記投影部に、計測された距離、及び、当該距離が計測されたときの前記測距部の角度に基づいて定まる前記投影面上の投影位置へ前記図面データを投影させる制御部とを備える
     投影システム。
PCT/JP2020/029850 2019-08-28 2020-08-04 投影方法、投影装置、及び、投影システム WO2021039313A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20857933.4A EP4024387A4 (en) 2019-08-28 2020-08-04 PROJECTION METHOD, PROJECTION DEVICE AND PROJECTION SYSTEM
US17/637,675 US11803109B2 (en) 2019-08-28 2020-08-04 Projection method, projection device, and projection system
CN202080059909.8A CN114342363A (zh) 2019-08-28 2020-08-04 投影方法、投影装置以及投影系统
JP2021542684A JP7304591B2 (ja) 2019-08-28 2020-08-04 投影方法、投影装置、及び、投影システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-156176 2019-08-28
JP2019156176 2019-08-28

Publications (1)

Publication Number Publication Date
WO2021039313A1 true WO2021039313A1 (ja) 2021-03-04

Family

ID=74684157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/029850 WO2021039313A1 (ja) 2019-08-28 2020-08-04 投影方法、投影装置、及び、投影システム

Country Status (5)

Country Link
US (1) US11803109B2 (ja)
EP (1) EP4024387A4 (ja)
JP (1) JP7304591B2 (ja)
CN (1) CN114342363A (ja)
WO (1) WO2021039313A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518212A (zh) * 2021-04-13 2021-10-19 安徽优品智能科技有限公司 投影画面的梯形校正方法、装置、投影设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6244008B2 (ja) 1983-11-03 1987-09-17 Dow Chemical Co
US20080055554A1 (en) * 2006-08-30 2008-03-06 Keith Tubin Full Scale Plan Projection
JP2008224516A (ja) * 2007-03-14 2008-09-25 Seiko Epson Corp 工事支援装置及び工事支援方法
JP2017181342A (ja) * 2016-03-31 2017-10-05 前田建設工業株式会社 墨出し支援装置及び墨出し支援方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117906A (ja) * 1999-10-14 2001-04-27 Building Research Inst Ministry Of Construction 空間情報の平面位置精度の推定方法
DE102013205593A1 (de) 2013-03-28 2014-10-02 Hilti Aktiengesellschaft Verfahren und Vorrichtung zur Anzeige von Objekten und Objektdaten eines Konstruktionsplans
FR3021784B1 (fr) * 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
CN104964676B (zh) * 2015-07-30 2018-04-13 赵越刚 红外线镭射投影放线仪
JP2017208688A (ja) * 2016-05-18 2017-11-24 株式会社スクウェア・エニックス プログラム、コンピュータ装置、プログラム実行方法、及び、コンピュータシステム
JP7013896B2 (ja) * 2018-01-31 2022-02-01 セイコーエプソン株式会社 投写システム、投写システムの制御方法、プロジェクター
CN109146990B (zh) * 2018-08-08 2023-02-24 广州市城市规划勘测设计研究院 一种建筑轮廓的计算方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6244008B2 (ja) 1983-11-03 1987-09-17 Dow Chemical Co
US20080055554A1 (en) * 2006-08-30 2008-03-06 Keith Tubin Full Scale Plan Projection
JP2008224516A (ja) * 2007-03-14 2008-09-25 Seiko Epson Corp 工事支援装置及び工事支援方法
JP2017181342A (ja) * 2016-03-31 2017-10-05 前田建設工業株式会社 墨出し支援装置及び墨出し支援方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518212A (zh) * 2021-04-13 2021-10-19 安徽优品智能科技有限公司 投影画面的梯形校正方法、装置、投影设备及存储介质

Also Published As

Publication number Publication date
US11803109B2 (en) 2023-10-31
JP7304591B2 (ja) 2023-07-07
US20220276548A1 (en) 2022-09-01
EP4024387A4 (en) 2022-11-30
EP4024387A1 (en) 2022-07-06
CN114342363A (zh) 2022-04-12
JPWO2021039313A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
US10194144B2 (en) Projection image adjusting system and projection image adjusting method
US20150377606A1 (en) Projection system
US20190052851A1 (en) System and Method for Recalibrating a Projector System
US10824312B2 (en) Method and system for assisting installation of elements in a construction work
JP2003270719A (ja) 投影方法、投影装置、作業支援方法及び作業支援システム
EP3045863A1 (en) Surveying instrument
JP2020008423A (ja) 施工管理システム
WO2021039313A1 (ja) 投影方法、投影装置、及び、投影システム
WO2020202720A1 (ja) 投影システム、投影装置及び投影方法
US20230384095A1 (en) System and method for controlling a light projector in a construction site
US20230045402A1 (en) Laser Leveling Device and Leveling Method
JP2008065522A (ja) 情報表示システム、及び、ポインティング制御方法
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
JP7353126B2 (ja) 測量システム
JP2020096243A (ja) 投影装置、投影システム、及び、投影方法
WO2021039425A1 (ja) 投影システム及び投影方法
JP7417838B2 (ja) 投影システム及び投影方法
JP2020042667A (ja) 投影システム、投影方法及びプログラム
JP7296551B2 (ja) 投影システム、投影装置及び投影方法
JP5291389B2 (ja) ポインティングシステム、ポインティング方法、ポインティングプログラム及び指示ベクトル演算装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20857933

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021542684

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020857933

Country of ref document: EP

Effective date: 20220328