WO2023135697A1 - 拡張現実による寸法測定方法 - Google Patents

拡張現実による寸法測定方法 Download PDF

Info

Publication number
WO2023135697A1
WO2023135697A1 PCT/JP2022/000856 JP2022000856W WO2023135697A1 WO 2023135697 A1 WO2023135697 A1 WO 2023135697A1 JP 2022000856 W JP2022000856 W JP 2022000856W WO 2023135697 A1 WO2023135697 A1 WO 2023135697A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
probe
augmented reality
dimension
measurement
Prior art date
Application number
PCT/JP2022/000856
Other languages
English (en)
French (fr)
Inventor
娜 楊
雄太 谷田
拓馬 大山
剛二郎 山口
Original Assignee
株式会社日立製作所
株式会社ARDe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所, 株式会社ARDe filed Critical 株式会社日立製作所
Priority to PCT/JP2022/000856 priority Critical patent/WO2023135697A1/ja
Priority to JP2023536200A priority patent/JP7457339B2/ja
Priority to TW112101284A priority patent/TW202342942A/zh
Publication of WO2023135697A1 publication Critical patent/WO2023135697A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/02Measuring arrangements characterised by the use of mechanical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a dimension measurement method using augmented reality, and more particularly to an augmented reality dimension measurement method including dimension measurement between two opposing objects or between two surfaces.
  • a railway vehicle is composed of a body structure, a bogie that supports the body structure, interior parts provided inside the body structure, and the like. Interior parts include seats, heat insulating materials, interior materials, lighting devices, luggage racks, and the like.
  • the structure includes an underframe that forms a floor surface, side structures erected at both ends in the width direction of the underframe, end structures erected at both ends in the longitudinal direction of the underframe, and side structures. and a roof structure placed on the upper end of the end structure.
  • Patent Document 1 discloses that when measuring the dimensions of a railway vehicle using a three-dimensional measuring machine, it is possible to specify the measurement location of the worker, reduce the measurement time by suppressing erroneous measurement, and confirm the measurement result.
  • a technique related to a method for measuring railway vehicles has been disclosed.
  • a hexahedral structure cannot be manufactured with high precision, it will take time to attach interior parts such as interior materials, seats, and luggage racks to the inner surface of the structure. This is because many fine adjustment and reconciliation operations of mounting dimensions are required after positioning at the manufacturing site.
  • the hexahedral structure can be manufactured with high precision, the number of man-hours required at the interior parts manufacturing site will be reduced, and railcars can be manufactured with less man-hours. For this reason, the dimensions of multiple cross-sections of the structure are measured in the assembled hexahedral state, and the degree of deviation between the design drawing and the product (structure) is grasped. Measurements here are, for example, the height dimension of the roof structure and underframe, the horizontal dimension of a pair of side structures, and the diagonal dimension of crossing at 8 to 12 cross sections that intersect the longitudinal direction of the structure. etc. is measured.
  • a dimension measurer who measures dimensions must identify a section to be measured while confirming the dimension of the structure in the longitudinal direction, and then measure a predetermined dimension within the identified section.
  • the height dimension in each cross section of a general structure is about 2.5m
  • its width dimension is about 3m
  • its diagonal dimension is about 3.8m, which are relatively large dimensions. Since it is necessary to measure this dimension with an accuracy of mm, a long measuring tool with a length of several meters (hereinafter referred to as a long gauge) is required.
  • Patent Document 1 assumes the use of a three-dimensional measuring machine.
  • an object of the present invention to provide an augmented reality-based dimension measurement method that can quickly guide a gauge to a measurement point and perform quick and accurate measurements.
  • one representative dimension measuring method of the present invention is a dimension measuring method using an augmented reality space generated by superimposing a virtual space on a real space, wherein the augmented reality space is a camera is generated by processing the image captured by the processing unit and displaying it on a transmissive screen, and the dimension measurement is performed between one actual measurement point and the other actual measurement point. and a second probe brought into contact with the other real measurement point.
  • a virtual measurement point another virtual measurement point corresponding to the other real measurement point, a virtual first probe corresponding to the first probe in the real space, and a virtual second probe corresponding to the second probe in the real space a first step of displaying the probes and determining contact between the first virtual probe and the one virtual measuring point; determining contact between the second virtual probe and the other virtual measuring point; and a second step.
  • a gauge in the dimension measuring method by augmented reality, a gauge can be rapidly guided to a measuring point, and quick and accurate measurement can be performed. Problems, configurations, and effects other than those described above will be clarified by the following embodiments.
  • FIG. 1 is a block diagram of a computer system for implementing aspects according to embodiments of the present disclosure.
  • FIG. 2 is a side view of a railway vehicle structure showing an example of measurement locations applied in the dimension measurement method by augmented reality of the present invention, and showing each measurement cross-sectional position.
  • FIG. 3 shows an example of measurement points applied in the dimension measurement method by augmented reality of the present invention, and is a cross-sectional view (FIG. 2 ) are arbitrary cross-sectional views of A to K).
  • FIG. 4 is a configuration diagram showing an example of a dimension measuring system used in the dimension measuring method by augmented reality of the present invention.
  • FIG. 5 is a schematic diagram showing an example of a long gauge used in the dimension measuring method by augmented reality of the present invention.
  • FIG. 6 is a schematic diagram showing an example of virtual probes at both ends of a long gauge generated in the virtual space in the dimension measuring method by augmented reality of the present invention.
  • FIG. 7 is a schematic diagram showing an example of each measurement point in an arbitrary section of the virtual space in the dimension measuring method by augmented reality of the present invention.
  • FIG. 8 is a diagram schematically showing an example of a measurement cross-section and the positions of respective measurement points in an augmented reality space generated by the dimension measurement system in the dimension measurement method by augmented reality of the present invention.
  • FIG. 9 is an example of a record table in the dimension measuring method by augmented reality of the present invention.
  • FIG. 10 is a schematic diagram showing an example of a method of guiding the position of a measurement point in the dimension measurement method by augmented reality of the present invention.
  • FIG. 11 is a flowchart (first part) showing an example of the dimension measuring method by augmented reality of the present invention.
  • FIG. 12 is a flowchart (second part) showing an example of the dimension measuring method by augmented reality of the present invention.
  • FIG. 13 is a flowchart (third part) showing an example of the dimension measuring method by augmented reality of the present invention.
  • FIG. 14 is a flowchart (fourth part) showing an example of the dimension measuring method by augmented reality of the present invention.
  • FIG. 1 is a block diagram of a computer system 300 for implementing aspects according to embodiments of the disclosure.
  • the mechanisms and apparatus of various embodiments disclosed herein may be applied to any suitable computing system.
  • the major components of computer system 300 include one or more processors 302 , memory 304 , terminal interfaces 312 , storage interfaces 314 , I/O (input/output) device interfaces 316 , and network interfaces 318 . These components may be interconnected via memory bus 306 , I/O bus 308 , bus interface unit 309 and I/O bus interface unit 310 .
  • Computer system 300 may include one or more processing units 302 A and 302 B, collectively referred to as processor 302 . Each processor 302 executes instructions stored in memory 304 and may include an on-board cache. In some embodiments, computer system 300 may include multiple processors, and in other embodiments, computer system 300 may be a single processing unit system. As the processing device, CPU (Central Processing Unit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), etc. can be applied.
  • CPU Central Processing Unit
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • DSP Digital Signal Processor
  • memory 304 may include random access semiconductor memory, storage devices, or storage media (either volatile or non-volatile) for storing data and programs.
  • memory 304 represents the entire virtual memory of computer system 300 and may include the virtual memory of other computer systems that are connected to computer system 300 over a network.
  • this memory 304 may conceptually be considered a single entity, in other embodiments this memory 304 may be a more complex arrangement, such as a hierarchy of caches and other memory devices.
  • memory may exist as multiple levels of caches, and these caches may be partitioned by function. As a result, one cache may hold instructions and another cache may hold non-instruction data used by the processor.
  • the memory may be distributed and associated with various different processing units, such as in the so-called NUMA (Non-Uniform Memory Access) computer architecture.
  • NUMA Non-Uniform Memory Access
  • Memory 304 may store all or part of the programs, modules, and data structures that implement the functions described herein.
  • memory 304 may store latent agent identification application 350 .
  • latent agent identification application 350 may include instructions or descriptions that perform the functions described below on processor 302, or may include instructions or descriptions that are interpreted by other instructions or descriptions.
  • latent factor identification application 350 may be implemented in semiconductor devices, chips, logic gates, circuits, circuit cards, and/or other physical hardware instead of or in addition to processor-based systems. It may be implemented in hardware via a device.
  • latent agent identification application 350 may include data other than instructions or descriptions.
  • a camera, sensor, or other data input device may be provided in direct communication with bus interface unit 309, processor 302, or other hardware of computer system 300. . Such a configuration may reduce the need for processor 302 to access memory 304 and latent agent identification applications.
  • Computer system 300 may include bus interface unit 309 that provides communication between processor 302 , memory 304 , display system 324 , and I/O bus interface unit 310 .
  • I/O bus interface unit 310 may be coupled to I/O bus 308 for transferring data to and from various I/O units.
  • I/O bus interface unit 310 communicates, via I/O bus 308, a plurality of I/O interface units 312, 314, 316, also known as I/O processors (IOPs) or I/O adapters (IOAs); and 318.
  • Display system 324 may include a display controller, display memory, or both. The display controller can provide video, audio, or both data to display device 326 .
  • Computer system 300 may also include one or more sensors or other devices configured to collect data and provide such data to processor 302 .
  • computer system 300 may include environmental sensors that collect humidity data, temperature data, pressure data, etc., motion sensors that collect acceleration data, motion data, etc., and the like. Other types of sensors can also be used.
  • the display memory may be dedicated memory for buffering video data.
  • the display system 324 may be connected to a display device 326 such as a single display screen, television, tablet, or handheld device.
  • display device 326 may include speakers to render audio. Alternatively, speakers for rendering audio may be connected to the I/O interface unit.
  • the functionality provided by display system 324 may be implemented by an integrated circuit that includes processor 302 .
  • bus interface unit 309 may be implemented by an integrated circuit including processor 302 .
  • the I/O interface unit has the function of communicating with various storage or I/O devices.
  • the terminal interface unit 312 may be used for user output devices such as video displays, speaker televisions, etc., and user input devices such as keyboards, mice, keypads, touch pads, trackballs, buttons, light pens, or other pointing devices.
  • user I/O devices 320 can be attached.
  • the user interface uses the user interface, the user inputs input data and instructions to the user I/O device 320 and the computer system 300 by operating the user input device, and receives output data from the computer system 300. good too.
  • the user interface may be displayed on a display device, played by a speaker, or printed via a printer, for example, via user I/O device 320 .
  • Storage interface 314 connects to one or more disk drives or direct access storage device 322 (typically a magnetic disk drive storage device, but an array of disk drives or other storage device configured to appear as a single disk drive). ) can be attached.
  • storage device 322 may be implemented as any secondary storage device.
  • the contents of memory 304 may be stored in storage device 322 and read from storage device 322 as needed.
  • Network interface 318 may provide a communication pathway to allow computer system 300 and other devices to communicate with each other. This communication path may be, for example, network 330 .
  • Computer system 300 shown in FIG. 1 includes a bus structure that provides a direct communication path between processor 302, memory 304, bus interface 309, display system 324, and I/O bus interface unit 310;
  • computer system 300 may include point-to-point links in hierarchical, star, or web configurations, multiple hierarchical buses, parallel or redundant communication paths.
  • I/O bus interface unit 310 and I/O bus 308 are shown as a single unit, in reality computer system 300 may include multiple I/O bus interface units 310 or multiple I/O buses.
  • a bus 308 may be provided.
  • multiple I/O interface units are shown for isolating the I/O bus 308 from various communication paths leading to various I/O devices, in other embodiments, one of the I/O devices Some or all may be directly connected to one system I/O bus.
  • computer system 300 is a device that receives requests from other computer systems (clients) that do not have a direct user interface, such as multi-user mainframe computer systems, single-user systems, or server computers. There may be. In other embodiments, computer system 300 may be a desktop computer, handheld computer, laptop, tablet computer, pocket computer, phone, smart phone, or any other suitable electronic device.
  • ⁇ Dimension measurement method by augmented reality Application examples of the dimension measurement method using augmented reality of the present invention include dimensions between two opposing objects (surfaces) such as structures such as tunnels and bridges, and ship, aircraft, and railroad vehicle structures.
  • two opposing objects such as structures such as tunnels and bridges, and ship, aircraft, and railroad vehicle structures.
  • the embodiment for carrying out the present invention will be described by taking the dimension measurement of a railway vehicle structure as an example.
  • the longitudinal direction of the railcar structure is the x direction
  • the width direction of the railcar structure is the y direction
  • the height direction of the railcar structure is the z direction.
  • the x direction, y direction, and z direction may be simply referred to.
  • Augmented Reality is a virtual space created by technologies such as 3D CAD (three-dimensional computer-aided design) data and CG (Computer Graphics) configured on a server (computer), etc., in a real space perceived by humans and cameras. It is a technology that overlaps spaces to extend the space that people perceive (augmented reality space).
  • 3D CAD three-dimensional computer-aided design
  • CG Computer Graphics
  • the real space means the space in which the image obtained by the operator's own vision or the image captured by the camera 93 is placed.
  • the virtual space in this specification means a space within a server (computer) constructed with digital information such as 3D CAD and CG.
  • the initial letter “R” of each code may mean real space
  • the initial letter “I” may mean virtual space.
  • “reality” may be added to nouns that exist in the real space, and “virtual” to nouns that exist in the virtual space.
  • the physical space and the virtual space “correspond”, it indicates that they correspond to the same position in each space unless otherwise specified.
  • FIG. 2 is a side view of a railway vehicle structure showing an example of measurement locations applied in the dimension measurement method by augmented reality of the present invention, and showing each measurement cross-sectional position.
  • FIG. 3 shows an example of a measurement point applied in the dimension measurement method by augmented reality of the present invention, and is a cross-sectional view perpendicular to the longitudinal direction of the railway vehicle structure showing the measurement points in each measurement cross section in FIG.
  • arbitrary cross-sectional views of measurement cross-sectional positions A to K in FIG. 2 are shown.
  • a railway vehicle body structure 1 (hereinafter referred to as the body structure 1) includes an underframe 10 forming a floor surface, side structures 20 erected at both ends of the underframe 10 in the y direction, and an x direction of the underframe 10. It is composed of end structures 30 erected at both ends and a roof structure 40 mounted on the upper ends of the side structures 20 and the end structures 30 .
  • the side structure 20 has openings such as a window 24 and a boarding/alighting opening 22 through which passengers board and alight.
  • the inner dimension measured in the structure 1 is the inner dimension of the cross section of the structure 1 perpendicular to the x direction. For example, in each of 11 cross sections from A cross section to K cross section in FIG. 2, a total of six dimension measurements as shown in FIG. 3 are planned.
  • the dimension along the y direction (horizontal direction) between the first measurement point Ra1n and the second measurement point Ra2n on the upper stage of the pair of side structures 20 is the upper horizontal dimension Lan.
  • the dimension along the y direction (horizontal direction) between the middle first measurement point Rb1n and the second measurement point Rb2n is the middle horizontal dimension Lbn.
  • the dimension along the y direction (horizontal direction) between the lower first measurement point Rc1n and the second measurement point Rc2n is the lower horizontal dimension Lcn.
  • the diagonal dimension between the first measurement point Ra1n on the upper level of one side structure 20 and the second measurement point Rc2n on the lower level of the other side structure 20 is the diagonal dimension Ebn.
  • the diagonal dimension between the first measurement point Rc1n on the lower stage of one side structure 20 and the second measurement point Ra2n on the upper stage of the other side structure 20 is the diagonal dimension Ean.
  • a first measurement point Rh1n on the vehicle interior side plate at the center of the underframe 10 in the y direction and a second measurement point Rh2n on the vehicle interior side plate at the center of the roof structure 40 in the y direction. is defined as the dimension to be measured.
  • FIG. 4 is a configuration diagram showing an example of a dimension measuring system used in the dimension measuring method by augmented reality of the present invention.
  • the dimension measurement system 100 shown in FIG. 4 includes a wearable device 92, a long gauge 50, a network server 96, and a network 95.
  • the wearable device 92 is a device worn by a worker.
  • the long gauge 50 is a long gauge having a communication function (transmitting section) capable of displaying the measured dimension and transmitting the measured dimension information.
  • the network server 96 is a server connected to a network in which 3D CAD data including dimensional measurement points of the structure 1 and library information such as work procedures are stored in a recording unit.
  • the network 95 is a network to which various devices such as the wearable device 92, the long gauge 50, the network server 96, measuring instruments, and the like are connected. Details of each configuration will be described below.
  • a wearable device 92 is a device worn by a worker 90 who measures dimensions. For example, when the wearable device 92 is worn on the head of the worker 90, it is called headgear. In this case, it is attached to the head of the worker 90 via a belt or the like so that the worker 90 can use both hands.
  • a wearable device 92 includes a camera 93 , an augmented reality server 97 and a transmissive screen 94 .
  • FIG. 4 shows an example in which the augmented reality server 97 and camera 93 are integrated.
  • the camera 93 can acquire an image from the viewpoint of the worker 90 and acquire an image that is almost the same as the image that the worker 90 visually perceives through the transmissive screen 14 . Therefore, the camera 93 is provided at a position close to the line of sight of the worker 90, such as near the transmissive screen 94.
  • FIG. For the camera 93, a configuration of a camera that obtains information by forming an image of incident light on an imaging device via a lens and a diaphragm can be applied. Examples of the imaging device here include a CCD (Charge-Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the camera 93 shoots images at, for example, 20 frames per second (20 fps) or more.
  • the augmented reality server 97 has a function of processing images taken by the camera 93 and communicating with the network 95 .
  • the augmented reality server 97 transmits the image of the augmented reality space generated by superimposing the image of the virtual space acquired by the augmented reality server 97 from the network server 96 via the network 95 on the image of the real space acquired by the camera 93. It has a function of projecting onto the mold screen 14 . Therefore, the augmented reality server 97 is equipped with devices necessary for these processes.
  • the augmented reality server 97 includes a memory area (recording unit) that stores application software for creating augmented reality and various data, a processing unit that processes requirements indicated by the worker 90 via the wearable device 92, and a network 95 It is a computer having a communication unit that transmits and receives data to and from.
  • the transmissive screen 94 forms the field of view of the worker 90 and has transparency that allows the worker 90 to secure the field of view.
  • the transmissive screen 94 is arranged in front of the operator's 90 field of view.
  • the functions of the augmented reality server 97 and the functions of the network server 96 are not clearly distinguished. Therefore, if the augmented reality server 97 and the network server 96 are connected to the network 95, they can replace each other's functions. For this reason, the network server 96 may also be provided with a recording unit, a processing unit, a communication unit, etc., like the augmented reality server 97, if necessary. Therefore, in the following description, when the augmented reality server 97 is described, it is intended to be either the augmented reality server 97 or the network server 96 .
  • the computer system 300 in FIG. 1, for example, can be applied to the augmented reality server 97 and the network server 96 .
  • FIG. 5 is a schematic diagram showing an example of a long gauge used in the dimension measuring method by augmented reality of the present invention.
  • FIG. 6 is a schematic diagram showing an example of virtual probes at both ends of a long gauge generated in the virtual space in the dimension measuring method by augmented reality of the present invention.
  • a long gauge 50 for measuring the dimensions of the structure 1 includes a tubular first gauge portion 51a and a tubular second gauge portion 51b.
  • the first gauge portion 51a and the second gauge portion 51b are telescopically combined in series so as to be expandable and contractable along their axial (longitudinal) directions. Thereby, the total length of the long gauge 50 (dimension from the end of the first probe 53a to the end of the second probe 53b) can be expanded and contracted in the range of B mm to C mm in the axial direction.
  • the second gauge portion 51b has a display portion 54. As shown in FIG.
  • the dimension information displayed on the display section 54 is the dimension information of the full length of the long gauge 50 . At this time, the dimensional information is displayed on the display unit 54 following the change in B to C (mm) in real time.
  • a first probe 53a is provided at one end of the first gauge portion 51a to contact the measuring point.
  • the first probe 53a has, for example, a spherical tip.
  • a first marker portion 52a is attached to the surface of the first gauge portion 51a at a position spaced apart by a predetermined dimension A (mm) from the first probe 53a.
  • one end of the second gauge portion 51b is provided with a second probe 53b that contacts the measurement point.
  • the second gauge portion 51b has, for example, a spherical tip.
  • a second marker portion 52b is attached to the surface of the second gauge portion 51b at a position spaced apart by a predetermined dimension A (mm) from the second probe 53b.
  • one end of the long gauge 50 has the first probe 53a and the other end has the second probe 53b.
  • the first marker portion 52 a and the second marker portion 52 b have patterns that can be identified by the camera 93 . For example, providing the augmented reality server 97 or the like with information about the pattern enables more reliable identification.
  • the augmented reality server 97 analyzes the information possessed by the first marker portion 52a, and displays the long gauge 50 on the axis of the first marker portion 52a.
  • a virtual first probe 63a corresponding to the first probe 53a is generated in a virtual space corresponding to a position separated by A (mm).
  • the augmented reality server 97 analyzes the information possessed by the second marker portion 52b, and displays the image on the axis of the long gauge 50 from the second marker portion 52b A virtual second probe 63b corresponding to the second probe 53b is generated in a virtual space corresponding to a position separated by A (mm).
  • the dimension B to C (mm) from the first probe 53a to the second probe 53b of the long gauge 50 is the distance from the first virtual probe 63a to the second virtual probe 63b of the virtual long gauge 60 in the virtual space. It corresponds one-to-one to the dimensions B to C (mm).
  • a virtual first probe 63a and a virtual second probe 63b corresponding to the first probe 53a and the second probe 53b of the long gauge 50 in the real space are displayed.
  • the positions of the first probe 53a and the second probe 53b of the long gauge 50 can be accurately grasped by displaying the virtual first probe 63a and the virtual second probe 63b in an easy-to-understand display such as a conspicuous color. becomes.
  • the first probe 53a and the second probe 53b in the physical space may hereinafter be referred to as the first physical probe 53a and the second physical probe 53b.
  • a first long gauge for measuring horizontal dimensions
  • a second long gauge for measuring diagonal dimensions
  • a third long gauge for measuring height dimensions.
  • a third long gauge may be used.
  • the long gauge while maintaining the state in which the first probe 53a of the long gauge is in contact with one of the measurement points of the structure 1, the long gauge is extended and contracted to move the second probe 53b of the long gauge. It abuts on the other measuring point of the structure 1 .
  • the display of the virtual first probe 63a can prevent the first probe 53a from deviating from one of the measurement points. In this way the overall measurement time can be shortened.
  • FIG. 7 is a schematic diagram showing an example of each measurement point in an arbitrary section of the virtual space in the dimension measuring method by augmented reality of the present invention.
  • the 3D CAD of the virtual space stored by the network server 96 includes in advance the position information of the measurement cross-sections for measuring the dimensions of the structure 1 and the position information of the virtual measurement points of each measurement cross-section.
  • FIG. 7 is an example of such information included in the 3D CAD information of the virtual space.
  • the virtual measurement points are Ia1n, Ib1n, 1c1n, and Ih1n (virtual first measurement points) and Ia2n, Ib2n, Ic2n, and Ih2n (virtual second measurement points) on each cross section.
  • Ra1n, Rb1n, Rc1n, Rh1n actual first measurement point
  • Ra2n, Rb2n, Rc2n, Rh2n actual second measurement point
  • the augmented reality server 97 generates information about the structure 1 in the augmented reality space by superimposing information about the structure 1 in the real space and information about the structure 1 in the virtual space, and projects it on the transmissive screen 94 . Therefore, in the augmented reality space visually recognized by the worker 90, the positional information of the virtual measurement section and the virtual measurement point (for example, Ib1n) in the virtual space is the actual measurement section of the structure 1 in the real space and the measurement point in the real space (for example, Rb1n) correspond one-to-one.
  • the augmented reality server 97 may inform the operator 90 of information on the measurement points to be measured according to a predetermined order of measurement dimensions. Specifically, the augmented reality server 97 selects the position information of the cross section to be measured next and the position information of the virtual measurement point (for example, Ib1n) belonging to this measurement cross section (In cross section). Then, the augmented reality server 97 projects and displays the information of the virtual measurement point on the transmissive screen 94 . This allows the worker 90 to know the information of the measurement point to be measured next.
  • the virtual measurement point for example, Ib1n
  • a dimension procedure when the dimension measuring system 100 is not used will be described.
  • the positions of a total of eight measurement points within each cross section n to be measured are specified, and these positions are marked on the faceplate of the vehicle interior of the structure 1 .
  • the marked measurement points are the measurement point Rb1n and the measurement point Rb2n in FIG. 3
  • the first probe 53a of the long gauge 50 is brought into contact with the measuring point Rb1n
  • the second probe 53b of the long gauge 50 is brought into contact with the measuring point Rb2n while adjusting the overall length of the long gauge 50.
  • the measurer reads out each measured value displayed on the display section 54 of the long gauge 50, and the recorder records the read-out numerical value.
  • the structure 1 has a larger dimension in the x direction than the dimensions in the y direction and the z direction, substantially similar cross sections n to be measured are arranged discretely along the x direction. For this reason, the worker 90 may mistake a measured point for a measured point for an unmeasured point in the cross-section to be measured. Furthermore, a lot of man-hours are required for checking to avoid writing errors when recording the measured values of each dimension. Moreover, when an error occurs, it may be difficult to notice the error.
  • FIG. 8 is a diagram schematically showing an example of the measurement cross-section and the positions of each measurement point in the augmented reality space generated by the dimension measurement system 100 in the dimension measurement method by augmented reality of the present invention.
  • FIG. 9 is an example of a record table in the dimension measuring method by augmented reality of the present invention. Based on these, the dimension measuring procedure using the dimension measuring system 100 will be described.
  • the worker 90 activates the dimension measurement system 100 and wears the wearable device 92 .
  • a worker 90 uses a camera 93 of a wearable device 92 to view the structure 1 whose dimensions are to be measured.
  • Information on the structure 1 in the physical space visually recognized by the camera 93 is transferred to the augmented reality server 97 .
  • the augmented reality server 97 compares the transferred information of the structure 1 in the real space with the library information stored in the network server 96 in advance, and generates the structure 1 in the virtual space corresponding to the information of the structure 1 in the real space. information (3D CAD data).
  • the augmented reality server 97 generates information about the structure 1 in the augmented reality space by superimposing information about the structure 1 in the real space and information about the structure 1 in the virtual space, and projects it on the transmissive screen 94 .
  • the augmented reality server 97 extracts characteristic portions such as the window frame of the window 24 or the edge portion of the entrance/exit 22 from the information of the structure 1 in the real space, and combines these characteristic portions with the information of the structure 1 in the virtual space. may be collated to generate the structure 1 of the augmented reality space.
  • the physical space of the body structure 1 may be provided with a real reference marker
  • the information of the body structure 1 in the virtual space may be provided with the information of the virtual reference marker corresponding to the real reference marker.
  • the augmented reality server 97 acquires information on the virtual reference marker in the virtual space and compares it with the reality reference marker. This allows the augmented reality server 97 to generate a more accurate augmented reality space structure 1 in which the real reference marker and the virtual reference marker match.
  • the worker 90 is prompted to measure the intermediate horizontal dimension Lbn connecting the actual first measurement point Rb1n and the actual second measurement point Rb2n from the image projected on the transmissive screen 94.
  • the augmented reality server 97 selects the virtual first probe 63a corresponding to the real first probe 53a in the real space from the first marker portion 52a of the long gauge 50. Generate in virtual space.
  • the augmented reality server 97 generates a virtual second probe 63b corresponding to the physical second probe 53b in the physical space from the physical second marker portion 52b of the long gauge 50 in the virtual space.
  • the augmented reality server 97 causes the first virtual probe 63a and the first virtual measuring point Rb1n to move in the virtual space. Based on the positional information or the like, it is detected that Ib1n is in contact. This contact detection information is notified to the worker 90 via the transmissive screen 94 .
  • the notification is made, for example, by changing the display of the color or size of the sphere indicating the virtual first measurement point Ib1n, or by voice information.
  • the augmented reality server 97 causes the virtual second probe 63b and the virtual second Contact with the measurement point Ib2n is detected based on positional information and the like.
  • This contact detection information is notified to the worker 90 via the transmissive screen 94 .
  • the notification is made by, for example, changing the display of the color or size of the sphere indicating the virtual second measurement point Ib2n, or by voice information.
  • the operator 90 brings the real first probe 53a of the long gauge 50 into contact with the real first measuring point Rb1n, and brings the real second probe 53b of the long gauge 50 into contact with the real second measuring point Rb2n. contact.
  • the augmented reality server 97 detects that the virtual first probe 63a is in contact with the virtual first measurement point Ib1n and the virtual second probe 63b is in contact with the virtual second measurement point Ib2n. By this, it is recognized that the dimension between two correctly selected real measurement points (Rb1n, Rb2n) is correctly measured.
  • the worker 90 acquires the measured value displayed on the display section 54 of the long gauge 50 at this time with the camera 93 .
  • the augmented reality server 97 performs image analysis on the measured values acquired by the camera 93 and digitizes them, and then stores the digitized measured values in a record table (FIG. 9) prepared in advance in the virtual space. Also, if the long gauge 50 has a communication function, it transmits the measured dimension data and stores the dimension data in a recording table (FIG. 9) stored in the memory area of the augmented reality server 97. You may
  • a switch may be provided at the portion of the long gauge 50 that the operator 90 grips. By operating this switch, the operator 90 who has recognized that the measurement is correct through the transmissive screen 94 transmits the dimension data (measurement value) measured by the long gauge 50 at this time to the augmented reality server 97. may be transmitted.
  • the augmented reality server 97 determines whether the stored measurement value is within the range from the upper limit allowable value to the lower limit allowable value, and records the pass/fail result in the record table (Fig. 9).
  • FIG. 9 shows the measurement points (first measurement point, second measurement point, second measurement point), measurement result (mm), upper limit allowable value (mm), lower limit allowable value (mm), and pass/fail judgment are shown. Dimensional values (mm) are actually entered for the measurement results, the upper allowable value, and the lower allowable value.
  • a measurement result is a result measured by the procedure described above. The upper permissible value and the lower permissible value can be predetermined. The pass/fail judgment is passed (“ ⁇ ”) if the measurement result is between the upper and lower permissible values, and fails (“ ⁇ ”) if it is not between the upper and lower permissible values. .
  • FIG. 9 is for the A section, and measurement results are input for other sections as well.
  • FIG. 10 is a schematic diagram showing an example of a method of guiding the position of a measurement point in the dimension measurement method by augmented reality of the present invention.
  • the dimension measurement system 100 has a function that allows the operator to easily grasp measurement points related to dimension measurement.
  • the method in FIG. 10 has the following two functions.
  • One is a function in which the augmented reality server 97 makes a virtual measurement point (eg, Ib1n) corresponding to the actual measurement point (eg, Rb1n) related to the dimension to be measured appear larger.
  • the large displayed virtual measurement point This is a function to display the size (for example, Ib1n) gradually smaller.
  • the radius of the virtual measurement point (for example, Ib1n) displayed as a sphere gradually decreases from Ir1 (FIG. 10(a)) to Ir2 (FIG. 10(b)).
  • the worker 90 can easily recognize the real measurement points (eg, Rb1n) corresponding to the virtual measurement points (eg, Ib1n) that are displayed large and easy to understand in the augmented reality space. Furthermore, the first probe 53a of the long gauge 50 is brought close to the virtual measurement point (eg, Ib1n) displayed in a large size, and it is determined that the first virtual probe 63a and the virtual measurement point (eg, Ib1n) are in contact. Then, the augmented reality server 97 displays the size of the virtual measurement point (eg, Ib1n) gradually smaller.
  • the operator 90 maintains contact determination between the virtual first probe 63a and the virtual measurement point (eg, Ib1n) in the virtual space. That is, the worker 90 causes the first probe 53a in the physical space corresponding to the virtual first probe 63a to follow the virtual measurement point (for example, Ib1n) that is becoming smaller. In this process, the real first probe 53a of the long gauge 50 held by the operator 90 is quickly guided to the real measurement point (for example, Rb1n).
  • the virtual measurement point eg, Ib1n
  • FIGS. 11 to 14 are flow charts showing an example of the dimension measuring method by augmented reality of the present invention.
  • FIGS. 11 to 14 show each part of the flow chart, and the parts with the same alphabet inside the circles are connected.
  • An example of a method for measuring the dimensions of a railway vehicle structure will be described with reference to FIGS. 11 to 14.
  • FIG. 11 to 14 An example of a method for measuring the dimensions of a railway vehicle structure will be described with reference to FIGS. 11 to 14.
  • step S10 shown in FIG. 11 the dimensional measurement (method) of the railway vehicle structure by augmented reality is started.
  • operator 90 starts measurement.
  • step S20 the worker 90 activates the dimension measurement system 100 and wears the wearable device 92.
  • a worker 90 uses a camera 93 of a wearable device 92 to view the structure 1 whose dimensions are to be measured.
  • step S30 the information of the structure 1 in the real space captured by the camera 93 is transferred to the augmented reality server 97.
  • the augmented reality server 97 collates the transferred information of the structure 1 in the physical space with the library information stored in advance in the network server 96 . Then, the information of the structure 1 in the virtual space corresponding to the information of the structure 1 in the real space is obtained.
  • the information of the structure 1 in the virtual space is, for example, information based on 3D CAD data.
  • step S40 the augmented reality server 97 generates information about the structure 1 in the augmented reality space by superimposing information about the structure 1 in the real space with information about the structure 1 in the virtual space.
  • the generated information on the structure 1 of the augmented reality space is projected onto the transmissive screen 94 under the control of the augmented reality server 97 .
  • step S50 the augmented reality server 97 acquires the information of the first marker portion 52a of the long gauge 50 in the real space, and the virtual corresponding to the first probe 53a corresponding to the acquired first marker portion 52a.
  • a first probe 63a is generated in the virtual space.
  • the augmented reality server 97 acquires the information of the second marker portion 52b of the long gauge 50 in the real space, and selects the virtual second probe 63b corresponding to the second probe 53b corresponding to the acquired second marker portion 52b. Generate in virtual space.
  • step S60 the process proceeds to step S60, and from step S60 to step S170, the operations related to dimension measurement are repeated until the determined dimension measurement is completed.
  • step S70 the operator 90 brings the real first probe 53a close to one of the first measurement points Ra1n.
  • the augmented reality server 97 detects it (detects that it has approached within a predetermined distance), and causes the transmissive screen 94 to largely display the virtual first measurement point Ia1n corresponding to the real first measurement point Ra1n.
  • the size at this time is sufficiently larger than the actual first measurement point Ra1n so that the operator 90 can easily recognize the position of the measurement point.
  • step S80 the augmented reality server 97 determines contact between the virtual first probe 63a and the large displayed virtual first measurement point Ia1n. If it is determined that there is contact, the process proceeds to step S90. If it is determined that there is no contact, the process returns to step S70, and the operator 90 is urged to perform the work in step S70. Specifically, the augmented reality server 97 causes the transmissive screen 94 to display a prompt to bring the real first probe 53a closer to the virtual first measurement point Ia1n.
  • step S90 the augmented reality server 97 controls the display of the transmissive screen 94 so as to gradually reduce the size of the virtual first measurement point Ia1n determined to be in contact.
  • step S100 the augmented reality server 97 determines contact between the virtual first measurement point Ia1n reduced to a predetermined size and the virtual first probe 63a.
  • the predetermined size here is a size that allows the real first probe 53a and the real first measurement point Ra1n to actually come into contact with each other. If it is determined that there is contact, it is determined that the contact has been completed, and the process proceeds to step S110. At this time, the transmissive screen 94 may be displayed to inform the worker 90 that the contact has been completed. If it is determined that there is no contact, the process returns to step S90.
  • step S110 the operator 90 brings the real second probe 53b closer to the other real second measurement point Ra2n (which faces the real first measurement point Ra1n).
  • the augmented reality server 97 detects it (detects that it has approached within a predetermined distance), and causes the transmissive screen 94 to largely display the virtual second measurement point Ia2n corresponding to the real second measurement point Ra2n.
  • the size at this time is sufficiently larger than the actual second measuring point Ra2n so that the operator 90 can easily recognize the position of the measuring point.
  • step S120 the augmented reality server 97 determines contact between the virtual second probe 63b and the large displayed virtual second measurement point Ia2n. If it is determined that there is contact, the process proceeds to step S130. If it is determined that there is no contact, the process returns to step S110, and the operator 90 is urged to perform the work of step S110. Specifically, the augmented reality server 97 causes the transmissive screen 94 to display a prompt to bring the real second probe 53b closer to the virtual second measurement point Ia2n.
  • step S130 the augmented reality server 97 controls the display of the transmissive screen 94 so as to gradually reduce the size of the virtual second measurement point Ia2n determined to be in contact.
  • step S140 the augmented reality server 97 determines contact between the virtual second measurement point Ia2n reduced to a predetermined size and the virtual second probe 63b.
  • the predetermined size here is a size that allows the real second probe 53b and the real second measuring point Ra2n to actually come into contact with each other. If it is determined that there is contact, it is determined that the contact has been completed, and the process proceeds to step S150. At this time, the transmissive screen 94 may be displayed to inform the worker 90 that the contact has been completed. If it is determined that there is no contact, the process returns to step S130.
  • step S150 the worker 90 reads the measured value on the display section 54 of the long gauge 50 with the camera 93.
  • This reading can be performed automatically by the augmented reality server 97 (for example, by image recognition) when the worker 90 displays the measured values on the display unit 54 on the camera 93 .
  • step S160 the augmented reality server 97 enters and stores the measured values acquired in S150 in a table (see FIG. 9). At the same time, it is determined whether or not the measured value is within the range from the upper limit allowable value to the lower limit allowable value, and the pass/fail result is entered and stored in a table.
  • step S170 when going to step S170, the process returns to step S60. Then, another measurement dimension is measured. In this manner, steps S60 through S170 are repeated for each measured dimension as shown in FIG.
  • step S180 the augmented reality server 97 checks that all columns in the table storing measured values contain measured values, and confirms that there are no measurement omissions. If all measured values have been entered, the process proceeds to step S190. If all measured values have not been entered, the process proceeds to step S200.
  • step S190 the augmented reality server 97 completes the dimension measurement of the structure 1.
  • the augmented reality server 97 causes the transmissive screen 94 to display the positions of one unmeasured first measurement point and the other unmeasured second measurement point.
  • the worker 90 can be notified of the measurement point by changing the color or displaying the measurement point in a large size.
  • step S210 the operator 90 brings the real first probe 53a into contact with the unmeasured virtual first measuring point projected on the transmissive screen 94. At this time, the virtual first measurement point can be displayed in a large size as in step S70.
  • step S220 the augmented reality server 97 determines contact between the virtual first probe 63a and the large displayed unmeasured virtual first measurement point. If it is determined that there is contact, the process proceeds to step S230, and if it is determined that there is no contact, the process returns to step S210 to prompt the operator 90 to perform the work in step S210.
  • step S230 the augmented reality server 97 controls the display of the transmissive screen 94 so that the size of the unmeasured virtual first measurement point determined to be in contact is gradually reduced.
  • step S240 the augmented reality server 97 determines contact between the unmeasured virtual first measurement point displayed small to a predetermined size and the virtual first probe 63a. If it is determined that there is contact, it is determined that the contact has been completed, and the process proceeds to step S250. If it is determined that there is no contact, the process returns to step S230.
  • step S250 the operator 90 brings the real second probe 53b into contact with the unmeasured virtual second measurement point projected on the transmissive screen 94. At this time, as shown in step S110, the virtual second measurement point can be displayed in a large size.
  • step S260 the augmented reality server 97 determines contact between the virtual second probe 63b and the large displayed unmeasured virtual second measurement point. If it is determined that there is contact, the process proceeds to step S270, and if it is determined that there is no contact, the process returns to step S250 to prompt the operator 90 to perform the work of step S110.
  • step S270 the augmented reality server 97 controls the display of the transmissive screen 94 so as to gradually reduce the size of the unmeasured virtual second measurement point.
  • step S280 the augmented reality server 97 determines contact between the unmeasured virtual second measurement point displayed small to a predetermined size and the virtual second probe 63b. If it is determined that there is contact, it is determined that the contact has been completed, and the process proceeds to step S290. If it is determined that there is no contact, the process returns to step S270.
  • step S290 the worker 90 reads the measured value on the display section 54 of the long gauge 50 with the camera 93.
  • This reading can be performed automatically by the augmented reality server 97 (for example, by image recognition) when the worker 90 displays the measured values on the display unit 54 on the camera 93 .
  • step S300 the augmented reality server 97 enters and stores the measured values obtained in S290 in a table (see FIG. 9). At the same time, it is determined whether or not the measured value is within the range from the upper limit allowable value to the lower limit allowable value, and the pass/fail result is entered and stored in a table.
  • step S310 the augmented reality server 97 checks that the measured values are stored in all columns of the table that stores the measured values, and confirms that there are no measurement omissions. If all the measured values are listed in the table, the process proceeds to the next step S320. If all the measured values are not listed in the table, the process returns to step S200.
  • step S320 the augmented reality server 97 completes the dimension measurement of the structure 1.
  • the augmented reality-based dimension measurement system can omit the work of specifying each measurement cross-section with reference to the design drawing and specifying the position of the measurement point in each measurement cross-section. This makes it possible to reduce man-hours and the number of workers for measurement. Furthermore, it is possible to quickly guide both ends of a long gauge held by a measurer between two opposing objects (surfaces) to two measurement points provided in advance on the inner surface of the structure. Furthermore, by informing the measurer that both ends of the long gauge have captured two measurement points, more reliable measurement is possible. Furthermore, by storing the measurement data measured by the long gauge in the server and reliably managing the history of the data, measurement omissions and measurement errors can be prevented and traceability can be ensured. Furthermore, it becomes possible to automatically perform pass/fail judgment as to whether the measured dimensions are appropriate.
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
  • it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.

Abstract

測定点にゲージを速やかに誘導して迅速かつ正確な測定が可能な拡張現実による寸法測定方法を提供することを目的とする。拡張現実空間は、カメラ(93)で撮影した映像を用いて処理部(97)で処理して透過型スクリーン(14)に表示することで生成し、仮想空間には、一方の現実測定点(Rb1n)に対応する一方の仮想測定点(Ib1n)と、他方の現実測定点(Rb2n)に対応する他方の仮想測定点(Ib2n)と、現実空間の第1プローブ(53a)に対応する仮想第1プローブ(63a)と、現実空間の第2プローブ(53b)に対応する仮想第2プローブ(63b)を表示し、仮想第1プローブ(63a)と、一方の仮想測定点(Ib1n)と、の接触を判定する第1ステップと、仮想第2プローブ(63b)と、他方の仮想測定点(Ib2n)と、の接触を判定する第2ステップと、を含む。

Description

拡張現実による寸法測定方法
 本発明は、拡張現実による寸法測定方法に関し、特に、対向する2物体間又は2面間の寸法測定を含む拡張現実による寸法測定方法に関する。
 トンネル、橋梁などの構造物や、船舶や航空機や鉄道車両構体など、対向する2物体(面)の間の寸法を測定し、図面指示に基づいて、施工あるいは製造されていることを確認する場面がある。例えば、対向する2物体(面)の間の寸法として、鉄道車両構体(以下、構体と記す。)の寸法がある。ここで、鉄道車両は、構体と、この構体を支持する台車と、構体の内部に備えられる内装部品などから構成される。内装部品は、座席や断熱材、内装材、照明装置、荷棚等があげられる。
 構体は、床面を構成する台枠と、この台枠の幅方向の両端部に立設される側構体と、この台枠の長手方向の両端部に立設される妻構体と、側構体と妻構体との上端部に載置される屋根構体と、から構成される六面体である。
 また、特許文献1には、3次元測定機を用いて鉄道車両の寸法を測定する際に、作業者の測定箇所の特定や、誤測定を抑制して測定時間を短縮し測定結果を確認できる鉄道車両の計測方法に関する技術が開示されている。
特開2016-205909号公報
 例えば、六面体の構体を精度良く製造できない場合は、内装材、座席、荷棚等の内装部品について、構体内面への取付作業に時間を要する。これは、製造現場での位置決め後の取付寸法の微調整やすり合わせ作業が多く必要とするためである。一方、六面体の構体を精度良く製造できれば、内装部品の製造現場での作業工数も小さくなり、鉄道車両を小さい工数で製造できる。このため、構体を組み上げた六面体の状態で、構体の複数の断面の寸法を計測して、設計図面と製品(構体)とのかい離の程度を把握する。ここでの測定は、例えば、構体の長手方向に交差する8~12か所の断面において、屋根構体と台枠との高さ寸法、一対の側構体の水平方向寸法、たすき掛けする対角寸法などを計測する。
 構体は、幅方向に比較して長手方向の寸法が非常に大きいため、類似形状の断面が連続する。このため、寸法を計測する寸法計測者は、構体の長手方向の寸法を確認しながら測定する断面を特定した後、その特定した断面内の所定の寸法を計測する必要がある。
 また、例えば、一般的な構体の各断面における高さ寸法は約2.5m、その幅方向寸法は約3m、その対角寸法は約3.8mと、比較的大きい寸法である。この寸法に対して、mmの精度で測定する必要があるため、数mの長さの長尺の測定具(以下、長尺ゲージと記す。)を必要としていた。
 さらに、設計図面を参照して測定断面を把握するとともに各構体の測定点を指示する作業者と、長尺ゲージで寸法を測定する作業者と、測定した結果を記録する作業者とが必要となる場合があった。このため、測定に係わる作業者の所定の人数が必要であり、必然的に工数が大きくなる傾向があった。
 また、特許文献1では3次元測定機を用いることを前提としている。
 本発明は、上記課題に鑑みて、測定点にゲージを速やかに誘導して迅速かつ正確な測定が可能な拡張現実による寸法測定方法を提供することを目的とする。
 上記目的を達成するため、代表的な本発明の寸法測定方法の一つは、現実空間に仮想空間を重ねて生成した拡張現実空間を用いる寸法測定方法であって、前記拡張現実空間は、カメラで撮影した映像を用いて処理部で処理して透過型スクリーンに表示することで生成し、前記寸法測定は、一方の現実測定点と他方の現実測定点の間を、前記一方の現実測定点に当接させる第1プローブと、前記他方の現実測定点に当接させる第2プローブと、を有するゲージを用いて測定し、前記仮想空間には、前記一方の現実測定点に対応する一方の仮想測定点と、前記他方の現実測定点に対応する他方の仮想測定点と、現実空間の前記第1プローブに対応する仮想第1プローブと、現実空間の前記第2プローブに対応する仮想第2プローブを表示し、前記仮想第1プローブと、前記一方の仮想測定点と、の接触を判定する第1ステップと、前記仮想第2プローブと、前記他方の仮想測定点と、の接触を判定する第2ステップと、を含むことを特徴とする。
 本発明によれば、拡張現実による寸法測定方法において、測定点にゲージを速やかに誘導して迅速かつ正確な測定ができる。
 上記以外の課題、構成及び効果は、以下の実施形態により明らかにされる。
図1は、本開示の実施形態による態様を実施するためのコンピュータシステムのブロック図である。 図2は、本発明の拡張現実による寸法測定方法で適用する測定箇所の一例を示し、各測定断面位置を示す鉄道車両構体の側面図である。 図3は、本発明の拡張現実による寸法測定方法で適用する測定箇所の一例を示し、図2の各測定断面における測定点を示す鉄道車両構体の長手方向に直角に交差する断面図(図2のA~Kの任意の断面図)である。 図4は、本発明の拡張現実による寸法測定方法に用いる寸法測定システムの一例を示す構成図である。 図5は、本発明の拡張現実による寸法測定方法に用いる長尺ゲージの一例を示す模式図である。 図6は、本発明の拡張現実による寸法測定方法における仮想空間に生成される長尺ゲージの両端部の仮想プローブの一例を示す模式図である。 図7は、本発明の拡張現実による寸法測定方法における仮想空間の任意断面における各測定点の一例を示す模式図である。 図8は、本発明の拡張現実による寸法測定方法における寸法測定システムが生成する拡張現実空間における測定断面および各測定点の位置の一例を模式的に示した図である。 図9は、本発明の拡張現実による寸法測定方法における記録表の一例である。 図10は、本発明の拡張現実による寸法測定方法において、測定点の位置を誘導する方法の一例を示す模式図である。 図11は、本発明の拡張現実による寸法測定方法の一例を示すフローチャート(第1の部分)である。 図12は、本発明の拡張現実による寸法測定方法の一例を示すフローチャート(第2の部分)である。 図13は、本発明の拡張現実による寸法測定方法の一例を示すフローチャート(第3の部分)である。 図14は、本発明の拡張現実による寸法測定方法の一例を示すフローチャート(第4の部分)である。
 本発明を実施するための形態を説明する。
<実施形態による態様を実施するためのコンピュータシステム>
 図1は、本開示の実施形態による態様を実施するためのコンピュータシステム300のブロック図である。本明細書で開示される様々な実施形態の機構及び装置は、任意の適切なコンピューティングシステムに適用されてもよい。コンピュータシステム300の主要コンポーネントは、1つ以上のプロセッサ302、メモリ304、端末インターフェース312、ストレージインターフェース314、I/O(入出力)デバイスインターフェース316、及びネットワークインターフェース318を含む。これらのコンポーネントは、メモリバス306、I/Oバス308、バスインターフェースユニット309、及びI/Oバスインターフェースユニット310を介して、相互的に接続されてもよい。
 コンピュータシステム300は、プロセッサ302と総称される1つ又は複数の処理装置302A及び302Bを含んでもよい。各プロセッサ302は、メモリ304に格納された命令を実行し、オンボードキャッシュを含んでもよい。ある実施形態では、コンピュータシステム300は複数のプロセッサを備えてもよく、また別の実施形態では、コンピュータシステム300は単一の処理装置によるシステムであってもよい。処理装置としては、CPU(Central Processing Unit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processong Unit)、DSP(Digital Signal Processor)等を適用できる。
 ある実施形態では、メモリ304は、データ及びプログラムを記憶するためのランダムアクセス半導体メモリ、記憶装置、又は記憶媒体(揮発性又は不揮発性のいずれか)を含んでもよい。ある実施形態では、メモリ304は、コンピュータシステム300の仮想メモリ全体を表しており、ネットワークを介してコンピュータシステム300に接続された他のコンピュータシステムの仮想メモリを含んでもよい。メモリ304は、概念的には単一のものとみなされてもよいが、他の実施形態では、このメモリ304は、キャッシュおよび他のメモリデバイスの階層など、より複雑な構成となる場合がある。例えば、メモリは複数のレベルのキャッシュとして存在し、これらのキャッシュは機能毎に分割されてもよい。その結果、1つのキャッシュは命令を保持し、他のキャッシュはプロセッサによって使用される非命令データを保持する構成であってもよい。メモリは、いわゆるNUMA(Non-Uniform Memory Access)コンピュータアーキテクチャのように、分散され、種々の異なる処理装置に関連付けられてもよい。
 メモリ304は、本明細書で説明する機能を実施するプログラム、モジュール、及びデータ構造のすべて又は一部を格納してもよい。例えば、メモリ304は、潜在因子特定アプリケーション350を格納していてもよい。ある実施形態では、潜在因子特定アプリケーション350は、後述する機能をプロセッサ302上で実行する命令又は記述を含んでもよく、あるいは別の命令又は記述によって解釈される命令又は記述を含んでもよい。ある実施形態では、潜在因子特定アプリケーション350は、プロセッサベースのシステムの代わりに、またはプロセッサベースのシステムに加えて、半導体デバイス、チップ、論理ゲート、回路、回路カード、および/または他の物理ハードウェアデバイスを介してハードウェアで実施されてもよい。ある実施形態では、潜在因子特定アプリケーション350は、命令又は記述以外のデータを含んでもよい。ある実施形態では、カメラ、センサ、または他のデータ入力デバイス(図示せず)が、バスインターフェースユニット309、プロセッサ302、またはコンピュータシステム300の他のハードウェアと直接通信するように提供されてもよい。このような構成では、プロセッサ302がメモリ304及び潜在因子識別アプリケーションにアクセスする必要性が低減する可能性がある。
 コンピュータシステム300は、プロセッサ302、メモリ304、表示システム324、及びI/Oバスインターフェースユニット310間の通信を行うバスインターフェースユニット309を含んでもよい。I/Oバスインターフェースユニット310は、様々なI/Oユニットとの間でデータを転送するためのI/Oバス308と連結していてもよい。I/Oバスインターフェースユニット310は、I/Oバス308を介して、I/Oプロセッサ(IOP)又はI/Oアダプタ(IOA)としても知られる複数のI/Oインターフェースユニット312、314、316、及び318と通信してもよい。表示システム324は、表示コントローラ、表示メモリ、又はその両方を含んでもよい。表示コントローラは、ビデオ、オーディオ、又はその両方のデータを表示装置326に提供することができる。また、コンピュータシステム300は、データを収集し、プロセッサ302に当該データを提供するように構成された1つまたは複数のセンサ等のデバイスを含んでもよい。例えば、コンピュータシステム300は、湿度データ、温度データ、圧力データ等を収集する環境センサ、及び加速度データ、運動データ等を収集するモーションセンサ等を含んでもよい。これ以外のタイプのセンサも使用可能である。表示メモリは、ビデオデータをバッファするための専用メモリであってもよい。表示システム324は、単独のディスプレイ画面、テレビ、タブレット、又は携帯型デバイスなどの表示装置326に接続されてもよい。ある実施形態では、表示装置326は、オーディオをレンダリングするためスピーカを含んでもよい。あるいは、オーディオをレンダリングするためのスピーカは、I/Oインターフェースユニットと接続されてもよい。他の実施形態では、表示システム324が提供する機能は、プロセッサ302を含む集積回路によって実現されてもよい。同様に、バスインターフェースユニット309が提供する機能は、プロセッサ302を含む集積回路によって実現されてもよい。
 I/Oインターフェースユニットは、様々なストレージ又はI/Oデバイスと通信する機能を備える。例えば、端末インターフェースユニット312は、ビデオ表示装置、スピーカテレビ等のユーザ出力デバイスや、キーボード、マウス、キーパッド、タッチパッド、トラックボール、ボタン、ライトペン、又は他のポインティングデバイス等のユーザ入力デバイスのようなユーザI/Oデバイス320の取り付けが可能である。ユーザは、ユーザインターフェースを使用して、ユーザ入力デバイスを操作することで、ユーザI/Oデバイス320及びコンピュータシステム300に対して入力データや指示を入力し、コンピュータシステム300からの出力データを受け取ってもよい。ユーザインターフェースは例えば、ユーザI/Oデバイス320を介して、表示装置に表示されたり、スピーカによって再生されたり、プリンタを介して印刷されたりしてもよい。
 ストレージインターフェース314は、1つ又は複数のディスクドライブや直接アクセスストレージ装置322(通常は磁気ディスクドライブストレージ装置であるが、単一のディスクドライブとして見えるように構成されたディスクドライブのアレイ又は他のストレージ装置であってもよい)の取り付けが可能である。ある実施形態では、ストレージ装置322は、任意の二次記憶装置として実装されてもよい。メモリ304の内容は、ストレージ装置322に記憶され、必要に応じてストレージ装置322から読み出されてもよい。ネットワークインターフェース318は、コンピュータシステム300と他のデバイスが相互的に通信できるように、通信経路を提供してもよい。この通信経路は、例えば、ネットワーク330であってもよい。
 図1に示されるコンピュータシステム300は、プロセッサ302、メモリ304、バスインタフェース309、表示システム324、及びI/Oバスインターフェースユニット310の間の直接通信経路を提供するバス構造を備えているが、他の実施形態では、コンピュータシステム300は、階層構成、スター構成、又はウェブ構成のポイントツーポイントリンク、複数の階層バス、平行又は冗長の通信経路を含んでもよい。さらに、I/Oバスインターフェースユニット310及びI/Oバス308が単一のユニットとして示されているが、実際には、コンピュータシステム300は複数のI/Oバスインターフェースユニット310又は複数のI/Oバス308を備えてもよい。また、I/Oバス308を様々なI/Oデバイスに繋がる各種通信経路から分離するための複数のI/Oインターフェースユニットが示されているが、他の実施形態では、I/Oデバイスの一部または全部が、1つのシステムI/Oバスに直接接続されてもよい。
 ある実施形態では、コンピュータシステム300は、マルチユーザメインフレームコンピュータシステム、シングルユーザシステム、又はサーバコンピュータ等の、直接的ユーザインターフェースを有しない、他のコンピュータシステム(クライアント)からの要求を受信するデバイスであってもよい。他の実施形態では、コンピュータシステム300は、デスクトップコンピュータ、携帯型コンピュータ、ノートパソコン、タブレットコンピュータ、ポケットコンピュータ、電話、スマートフォン、又は任意の他の適切な電子機器であってもよい。
<拡張現実による寸法測定方法>
 本発明の拡張現実による寸法測定方法の適用例としては、トンネル、橋梁などの構造物や、船舶や航空機や鉄道車両構体など、対向する2物体(面)の間の寸法が挙げられる。以下では、鉄道車両構体の寸法測定を例に挙げて、本発明を実施するための形態を説明する。
 まず、各方向を定義する。鉄道車両構体の長手方向をx方向、鉄道車両構体の幅方向をy方向、鉄道車両構体の高さ方向をz方向とする。以下、単に、x方向、y方向、z方向と記すことがある。
 拡張現実(Augmented Reality)は、人間やカメラが知覚する現実空間に、サーバ(コンピュータ)等に構成される3DCAD(3次元コンピュータ支援設計)データやCG(Computer Graphics)等の技術で構築される仮想空間を重ねて、人が知覚する空間を拡張する(拡張現実空間)技術である。
 本明細書での現実空間とは、作業者が自らの視覚で得た像、または、カメラ93が撮影した像が置かれる空間を意味するものである。また、本明細書での仮想空間とは、3DCADやCGなどデジタル情報で構築されたサーバ(コンピュータ)内の空間を意味するものである。各図や本明細書において各符号の頭文字「R」は現実空間を意味し、頭文字「I」は仮想空間を意味する場合がある。また、本明細書では、便宜上、現実空間に存在する名詞に「現実」を付加し、仮想空間に存在する名詞に「仮想」を付加する場合がある。また、現実空間と仮想空間が「対応する」場合は、特に記載がない場合、それぞれの空間の同じ位置に対応していることを示す。
<鉄道車両構体の寸法測定>
 図2は、本発明の拡張現実による寸法測定方法で適用する測定箇所の一例を示し、各測定断面位置を示す鉄道車両構体の側面図である。図3は、本発明の拡張現実による寸法測定方法で適用する測定箇所の一例を示し、図2の各測定断面における測定点を示す鉄道車両構体の長手方向に直角に交差する断面図である。ここでは、図2の測定断面位置A~Kの任意の断面図を示す。
 鉄道車両構体1(以下、構体1と記す。)は、床面をなす台枠10と、台枠10のy方向の両端部に立設される側構体20と、台枠10のx方向の両端部に立設される妻構体30と、側構体20および妻構体30の上端部に載置される屋根構体40とから構成される。側構体20は、窓24や乗客等が乗降に供する乗降口22などの開口部を有する。
 構体1において測定する内側寸法は、構体1のx方向に直角に交差する断面における内側寸法である。例えば、図2のA断面からK断面に至る11カ所の各断面において、図3に示すような計6種の寸法測定が計画されている。
(水平方向の測定)
 図3に示すように、一方の側構体20の車内側の面板の高さ方向に分布する3つの第1測定点(Ra1n、Rb1n、Rc1n)と、他方の側構体20の車内側の面板の高さ方向に分布する3つの第2測定点(Ra2n、Rb2n、Rc2n)と、の間において、上段と中段と下段の3種類の水平寸法(Lan、Lbn、Lcn)が規定されている。
 一対の側構体20の上段の第1測定点Ra1nと第2測定点Ra2nの間をy方向(水平方向)に沿う寸法は上段水平寸法Lanである。その中段の第1測定点Rb1nと第2測定点Rb2nの間のy方向(水平方向)に沿う寸法は中段水平寸法Lbnである。その下段の第1測定点Rc1nと第2測定点Rc2nの間のy方向(水平方向)に沿う寸法は下段水平寸法Lcnである。各測定点および各寸法の末尾の「n」は、各A断面からK断面(n=A~K断面)を示す。例えば、Ra1nのB断面であれば、Ra1B断面となる。以下で説明する各測定点および各寸法も同様である。
(対角方向の測定)
 さらに図3に示すように、一方の側構体20の車内側の面板の上下の各測定点(Ra1n、Rc1n)と、他方の側構体20の車内側の面板の上下の各測定点(Ra2n、Rc2n)と、の間において、2種類の対角寸法が規定されている。
 一方の側構体20の上段の第1測定点Ra1nと、他方の側構体20の下段の第2測定点Rc2nとの間の対角寸法(構体1をx方向に見た時の右下がりの対角寸法)は、対角方向寸法Ebnである。一方の側構体20の下段の第1測定点Rc1nと、他方の側構体20の上段の第2測定点Ra2nとの間の対角寸法(構体1をx方向に見た時の右上がりの対角寸法)は、対角方向寸法Eanである。
(高さ方向の測定)
 さらに図3に示すように、台枠10のy方向の中央部の車内側の面板の第1測定点Rh1nと、屋根構体40のy方向の中央部の車内側面板の第2測定点Rh2nと、の間の高さ方向(垂直方向)寸法Hnが測定する寸法として規定される。
<システム構成>
 図4は、本発明の拡張現実による寸法測定方法に用いる寸法測定システムの一例を示す構成図である。
 図4で示す寸法測定システム100は、ウエアラブル装置92、長尺ゲージ50、ネットワークサーバ96、ネットワーク95を備えている。ウエアラブル装置92は、作業者が身に着ける装置である。長尺ゲージ50は、測定した寸法を表示するとともに測定した寸法情報を送信できる通信機能(送信部)を有する長尺ゲージである。ネットワークサーバ96は、構体1の寸法測定点等を含む3DCADデータや作業手順などのライブラリ情報が記録部に格納されているネットワークに接続されるサーバである。ネットワーク95は、ウエアラブル装置92、長尺ゲージ50、ネットワークサーバ96等の各種装置や測定機器等が接続されるネットワークである。以下各構成の詳細について説明する。
(ウエアラブル装置)
 ウエアラブル装置92は、寸法を測定する作業者90が身に着ける機器である。このウエアラブル装置92は、例えば作業者90が頭に装着する機器である場合には、ヘッドギアなどと称される。この場合は、作業者90の両手を使えるように、ベルトなどを介して作業者90の頭に装着される。ウエアラブル装置92は、カメラ93、拡張現実サーバ97、透過型スクリーン94を備えている。図4は、拡張現実サーバ97とカメラ93とが一体に構成される例を示している。
 カメラ93は、作業者90の視点で映像を取得し、作業者90が透過型スクリーン14越しに視覚で捉える像とほぼ同じ像を取得できる。このため、カメラ93は、透過型スクリーン94の近傍など、作業者90の目線に近い位置で備えられている。カメラ93は、レンズや絞りを介して撮像素子に入射光を結像して情報を得るカメラの構成を適用できる。ここでの撮像素子の例としては、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等があげられる。カメラ93は、映像として、例えば、1秒間に20フレーム(20fps)以上等で撮影する。
 拡張現実サーバ97は、カメラ93で撮影した画像等を画像処理するとともにネットワーク95と通信する機能を有する。拡張現実サーバ97は、カメラ93が取得した現実空間の映像に、拡張現実サーバ97がネットワークサーバ96からネットワーク95を介して取得した仮想空間の映像を重ねた生成する拡張現実空間の映像を、透過型スクリーン14に投影する機能を有する。このため、拡張現実サーバ97は、これらの処理に必要なデバイスを備えている。拡張現実サーバ97は、拡張現実を創生するアプリケーションソフトや各種データを保管するメモリ領域(記録部)と、作業者90がウエアラブル装置92を介して示す要求事項を処理する処理部と、ネットワーク95とのデータを送受信する通信部を有するコンピュータである。
 透過型スクリーン94は、作業者90の視界を形成し、作業者90が視界を確保できる透過性を備える。透過型スクリーン94は、作業者90の視界の前方に配置される。
 拡張現実サーバ97の機能とネットワークサーバ96の機能とは、明確に区別していない。このため、拡張現実サーバ97およびネットワークサーバ96がネットワーク95に接続していれば、お互いの機能を代替することができる。このため、ネットワークサーバ96にも必要に応じて拡張現実サーバ97と同様に記録部や処理部、通信部等を備えていてもよい。よって、これ以降の説明では、拡張現実サーバ97と記載した場合は、拡張現実サーバ97またはネットワークサーバ96のいずれかであることを意図する。なお、拡張現実サーバ97とネットワークサーバ96は、例えば、図1のコンピュータシステム300を適用できる。
(長尺ゲージ)
 図5は、本発明の拡張現実による寸法測定方法に用いる長尺ゲージの一例を示す模式図である。図6は、本発明の拡張現実による寸法測定方法における仮想空間に生成される長尺ゲージの両端部の仮想プローブの一例を示す模式図である。
 構体1の寸法を測定する長尺ゲージ50は、筒状の第1ゲージ部51aと、筒状の第2ゲージ部51bを備えている。第1ゲージ部51aと第2ゲージ部51bとは、テレスコピックにそれらの軸(長手)方向に沿って伸縮可能に直列に組み合わされている。これにより、その軸方向に長尺ゲージ50の全長(第1プローブ53aの端部から第2プローブ53bの端部に至る寸法)をBmmからCmmの範囲で伸縮できる。第2ゲージ部51bは表示部54を備えている。表示部54に表示される寸法情報は、長尺ゲージ50の全長の寸法情報である。このとき、B~C(mm)の変化にリアルタイムで追随して寸法情報が表示部54に表示される。
 第1ゲージ部51aの一方の端部には、測定点に当接する第1プローブ53aが備えらえる。第1プローブ53aは例えば先端が球状に形成される。また、第1プローブ53aから所定のA(mm)寸法離れた位置に第1マーカ部52aが第1ゲージ部51aの表面に貼付されている。
 同様に、第2ゲージ部51bの一方の端部には、測定点に当接する第2プローブ53bが備えらえる。第2ゲージ部51bは例えば先端が球状に形成される。また、第2プローブ53bから所定のA(mm)寸法離れた位置に第2マーカ部52bが第2ゲージ部51bの表面に貼付されている。
 このような構成により、長尺ゲージ50の一端は第1プローブ53a、他端は第2プローブ53bを有する構成となる。また、第1マーカ部52a及び第2マーカ部52bは、カメラ93による識別できるパターンの模様を備えている。例えば、拡張現実サーバ97等にそのパターンに関する情報を備えることでより確実な識別を可能とする。
 ウエアラブル装置92のカメラ93が第1マーカ部52aを視認した時、拡張現実サーバ97は、第1マーカ部52aが有する情報を解析して、長尺ゲージ50の軸上に第1マーカ部52aからA(mm)離れた位置に対応する仮想空間に、第1プローブ53aに対応する仮想第1プローブ63aを生成する。
 ウエアラブル装置92のカメラ93が第2マーカ部52bを視認した時、拡張現実サーバ97は、第2マーカ部52bが有する情報を解析して、長尺ゲージ50の軸上に第2マーカ部52bからA(mm)離れた位置に対応する仮想空間に、第2プローブ53bに対応する仮想第2プローブ63bを生成する。
 現実空間において、長尺ゲージ50の第1プローブ53aから第2プローブ53bに至る寸法B~C(mm)は、仮想空間における仮想長尺ゲージ60の仮想第1プローブ63aから仮想第2プローブ63bに至る寸法B~C(mm)に一対一に対応する。
 すなわち、透過型スクリーン94には、現実空間の長尺ゲージ50の第1プローブ53aと第2プローブ53bに対応する仮想第1プローブ63aと仮想第2プローブ63bが表示される。このとき、仮想第1プローブ63aや仮想第2プローブ63bを目立つ色などの分かり易い表示とすることで、長尺ゲージ50の第1プローブ53aと第2プローブ53bの位置を的確に捉えることが可能となる。なお、現実空間の第1プローブ53aと第2プローブ53bは、以降、現実第1プローブ53aと現実第2プローブ53bと記する場合がある。
 ここで、図3に示した構体1の上段水平寸法Lan、中段水平寸法Lbn、下段水平寸法Lcnと、対角方向寸法EanおよびEbnと、高さ寸法Hnと、の間には、比較的大きな長さの差がある。このため、水平寸法を測定する第1の長尺ゲージと、対角寸法を測定する第2の長尺ゲージと、高さ寸法を測定する第3の長尺ゲージと、の3種類の長尺ゲージを準備してもよい。そして、各断面の水平方向寸法のみを第1の長尺ゲージで測定し、次に、各断面の対角寸法を第2の長尺ゲージで測定し、最後に、各断面の高さ寸法を第3の長尺ゲージで測定してもよい。
 この方法によれば、長尺ゲージの第1プローブ53aを構体1の一方の測定点に当接した状態を維持しながら、長尺ゲージを伸縮させて、その長尺ゲージの第2プローブ53bを構体1の他方の測定点に当接する。この際に、例えば、仮想第1プローブ63aが表示されていることで第1プローブ53aが一方の測定点から外れることを抑制できる。このようにして、全体の測定時間を短くできる。
<作業者への寸法測定を誘導する方法>
 図7は、本発明の拡張現実による寸法測定方法における仮想空間の任意断面における各測定点の一例を示す模式図である。
 ネットワークサーバ96が格納する仮想空間の3DCADには、あらかじめ構体1の寸法を測定する測定断面の位置情報と、各測定断面の仮想測定点の位置情報とが含まれている。図7は、仮想空間の3DCAD情報が備えるこれらの情報の一例である。測定断面の位置情報は、図7に示す仮想空間のIn(n=A~K)断面であり、ここでの断面は、図2の各位置に対する断面となる。また、仮想測定点は、各断面における、(仮想第1測定点の)Ia1n、Ib1n、1c1n、Ih1n、(仮想第2測定点の)Ia2n、Ib2n、Ic2n、Ih2nである。これらは、図3の現実空間の各測定点である、(現実第1測定点の)Ra1n、Rb1n、Rc1n、Rh1n、(現実第2測定点の)Ra2n、Rb2n、Rc2n、Rh2nに対応している。
 拡張現実サーバ97は、現実空間の構体1の情報に仮想空間の構体1の情報を重ねた拡張現実空間の構体1の情報を生成して、透過型スクリーン94に投影する。このため、作業者90が視認する拡張現実空間において、仮想空間の仮想測定断面および仮想測定点(例えばIb1n)の位置情報は、現実空間の構体1の現実測定断面および現実空間の測定点(例えばRb1n)の位置情報に一対一に対応している。
 また、拡張現実サーバ97は、あらかじめ決められた測定寸法の順番に従って、測定すべき測定点の情報を作業者90に伝えてもよい。具体的には、次に測定すべき測定断面の位置情報と、この測定断面(In断面)に属する仮想測定点(例えばIb1n)の位置情報を拡張現実サーバ97が選択する。そして、拡張現実サーバ97は、その仮想測定点の情報を透過型スクリーン94に投影して表示する。このことによって、作業者90が次に測定する測定点の情報を知ることができる。
(寸法測定システムを用いない場合の寸法測定手順)
 寸法測定システム100を用いない場合の寸法手順について説明する。作業者90は、まず、設計図面を参照して妻構体30から測定する測定断面n(n=A~Kの各測定点)までの寸法を測定して測定すべき測定断面nを特定する。その後、設計図面を参照して、各測定断面n内の計8か所の測定点の位置を特定して、構体1の車内側の面板にそれらの位置に印をする。
 そして、例えば、印をした測定点が図3の測定点Rb1nと測定点Rb2nである場合について説明する。この場合、長尺ゲージ50の第1プローブ53aを測定点Rb1nに当接させるとともに、長尺ゲージ50の全長を調整しながら、長尺ゲージ50の第2プローブ53bを測定点Rb2nに当接させる。そして、長尺ゲージ50の表示部54に表示される各測定値を測定者が読み上げて、記録者がその読み上げた数値を記録する。
 構体1は、y方向およびz方向の寸法に比較してx方向の寸法が大きいため、略相似形の測定断面nがx方向に沿って離散的に配置される。このため、作業者90は、測定断面内において、測定済の測定点と未測定の測定点とを取り違えが生じるおそれがある。さらに、測定した各寸法の値を記録する時の誤記を避けるための確認等に多くの工数が必要となる。また、誤記が生じた時に、その誤記に気付きにくい可能性があった。
(寸法測定システムを用いた寸法測定手順)
 図8は、本発明の拡張現実による寸法測定方法における寸法測定システム100が生成する拡張現実空間における測定断面および各測定点の位置の一例を模式的に示す図である。図9は、本発明の拡張現実による寸法測定方法における記録表の一例である。これらに基づいて寸法測定システム100を用いた寸法測定手順について説明する。
 作業者90は、寸法測定システム100を起動して、ウエアラブル装置92を装着する。作業者90は、ウエアラブル装置92のカメラ93で、寸法を測定する構体1を視認する。カメラ93が視認した現実空間の構体1の情報は、拡張現実サーバ97に転送される。拡張現実サーバ97は、転送された現実空間の構体1の情報と、あらかじめネットワークサーバ96に格納されるライブラリ情報と、を照合して、現実空間の構体1の情報に対応する仮想空間の構体1の情報(3DCADデータ)を取得する。
 拡張現実サーバ97は、現実空間の構体1の情報に仮想空間の構体1の情報を重ねた拡張現実空間の構体1の情報を生成して、透過型スクリーン94に投影する。
 拡張現実サーバ97は、現実空間の構体1の情報から、窓24の窓枠または乗降口22のエッジ部等の特徴部を抽出して、これら特徴部と仮想空間の構体1の情報のこれらとを照合して、拡張現実空間の構体1を生成しても良い。
 また、構体1の現実空間に現実基準マーカを備えておき、仮想空間の構体1の情報に現実基準マーカに対応する仮想基準マーカの情報を備えておいてもよい。カメラ93でこの現実空間の現実基準マーカを取得した後、拡張現実サーバ97が仮想空間の仮想基準マーカの情報を取得し、現実基準マーカと照合する。このことで、拡張現実サーバ97が現実基準マーカと仮想基準マーカが一致したより正確な拡張現実空間の構体1を生成することができる。
 図8に示す例では、作業者90は、透過型スクリーン94に投影された映像から、現実第1測定点Rb1nと、現実第2測定点Rb2nと、を結ぶ中段水平寸法Lbnの測定を促されていることを把握する。作業者90は、カメラ93で長尺ゲージ50を視認すると、拡張現実サーバ97は、長尺ゲージ50の第1マーカ部52aから現実空間の現実第1プローブ53aに対応する仮想第1プローブ63aを仮想空間に生成する。さらに、拡張現実サーバ97は、長尺ゲージ50の現実第2マーカ部52bから現実空間の現実第2プローブ53bに対応する仮想第2プローブ63bを仮想空間に生成する。
 作業者90が、長尺ゲージ50の現実第1プローブ53aを現実第1測定点Rb1nに当接させると、拡張現実サーバ97は、仮想空間において、仮想第1プローブ63aと、仮想第1測定点Ib1nとが接触していることを位置情報等に基づき検知する。この接触検知情報は、透過型スクリーン94を介して、作業者90に報知する。ここでの報知は、例えば、仮想第1測定点Ib1nを示す球体の色や大きさの表示を変えたり、音声情報などによって伝える。
 続いて、作業者90は、長尺ゲージ50の第2プローブ53bを現実第2測定点Rb2nに当接させると、拡張現実サーバ97は、仮想空間において、仮想第2プローブ63bと、仮想第2測定点Ib2nとが接触していることを位置情報等に基づき検知する。この接触検知情報は、透過型スクリーン94を介して、作業者90に報知する。ここでの報知は、例えば、仮想第2測定点Ib2nを示す球体の色や大きさの表示を変えたり、音声情報などによって伝える。
 このように、作業者90は、現実第1測定点Rb1nに長尺ゲージ50の現実第1プローブ53aを当接させ、現実第2測定点Rb2nに長尺ゲージ50の現実第2プローブ53bを当接させる。これと同時に、拡張現実サーバ97は、仮想第1プローブ63aが仮想第1測定点Ib1nと接触し、仮想第2プローブ63bが仮想第2測定点Ib2nに接触していることを検知する。このことによって、正しく選択された2点の現実測定点(Rb1n、Rb2n)の間の寸法が正しく測定されることを認識する。
 作業者90は、この時の長尺ゲージ50の表示部54に表示される測定値をカメラ93で取得する。拡張現実サーバ97は、カメラ93に取得された測定値を画像解析して数値化した後、仮想空間にあらかじめ準備される記録表(図9)にその数値化された測定値を格納する。また、長尺ゲージ50に通信機能を備えている場合は、測定された寸法データを送信して、拡張現実サーバ97のメモリ領域等に格納される記録表(図9)にその寸法データを格納してもよい。
 または、作業者90が把持する長尺ゲージ50の部位にスイッチを備えておいてもよい。透過型スクリーン94を介して正しく測定されていることを認識した作業者90がこのスイッチを操作することによって、この時の長尺ゲージ50が測定した寸法データ(測定値)を拡張現実サーバ97に伝送しても良い。
 拡張現実サーバ97は、格納された測定値が上限許容値から下限許容値の範囲内であるか否かを判断して、その合否結果を記録表(図9)に記録する。
 図9は、各測定箇所(水平上段寸法、水平中段寸法、水平下段寸法、対角線寸法(右上り)、対角線寸法(右下り)、高さ寸法)に対する、測定点(第1測定点、第2測定点)、測定結果(mm)、上限許容値(mm)、下限許容値(mm)、合否判定が示された記録表である。測定結果、上限許容値、下限許容値は、実際には寸法値(mm)が入力される。測定結果は、上述した手順で測定された結果である。上限許容値と下限許容値はあらかじめ定めておくことができる。合否判定は、測定結果が、上限許容値と下限許容値の間にある場合は合格(「○」)、上限許容値と下限許容値の間にない場合は不合格(「×」)となる。図9は、A断面についてであり、他の断面についても測定結果が入力される。
<測定点への誘導方法>
 図10は、本発明の拡張現実による寸法測定方法において、測定点の位置を誘導する方法の一例を示す模式図である。寸法測定システム100は、作業者が寸法測定に係わる測定点を容易に把握できる機能を備える。
 図10の方法は、次の2つの機能を有する。1つは、図10(a)に示すように、拡張現実サーバ97が、測定する寸法に係わる現実測定点(例えばRb1n)に対応する仮想測定点(例えばIb1n)を大きく出現させる機能である。2つめは、図10(b)に示すように、大きく表示した仮想測定点(例えばIb1n)と仮想長尺ゲージ60の仮想第1プローブ63aとの接触を検知すると、大きく表示された仮想測定点(例えばIb1n)の大きさを徐々に小さく表示する機能である。このとき、球体で表示される仮想測定点(例えばIb1n)の半径は、Ir1(図10(a))からIr2(図10(b))へと徐々に小さくなっていく。
 作業者90は、拡張現実空間において、大きく分かりやすく表示される仮想測定点(例えばIb1n)に対応する現実測定点(例えばRb1n)を容易に認識できる。さらに、この大きく表示された仮想測定点(例えばIb1n)に、長尺ゲージ50の第1プローブ53aを近づけて仮想第1プローブ63aと仮想測定点(例えばIb1n)とが接触していると判定されると、拡張現実サーバ97は仮想測定点(例えばIb1n)の大きさを徐々に小さく表示する。
 このとき、作業者90は、仮想空間における仮想第1プローブ63aと仮想測定点(例えばIb1n)との接触判定を維持するようにする。すなわち作業者90は、仮想第1プローブ63aに対応する現実空間の第1プローブ53aを、小さくなりつつある仮想測定点(例えばIb1n)に追随させる。この過程において、作業者90が把持する長尺ゲージ50の現実第1プローブ53aは、現実測定点(例えばRb1n)に速やかに導かれる。
<フローチャート>
 図11から図14は、本発明の拡張現実による寸法測定方法の一例を示すフローチャートである。図11から図14は、フローチャートの各部分を示し、丸で記載した内側のアルファベットが同じ部分が接続される。図11から図14を用いて、鉄道車両構体の寸法測定方法の一例について説明する。
 まず、図11に示すステップS10では、拡張現実による鉄道車両構体の寸法測定(方法)を開始する。ここでは作業者90が測定を開始する。
 次に、ステップS20では、作業者90は、寸法測定システム100を起動して、ウエアラブル装置92を装着する。作業者90は、ウエアラブル装置92のカメラ93で、寸法を測定する構体1を視認する。
 次に、ステップS30では、カメラ93が撮影した現実空間の構体1の情報は、拡張現実サーバ97に転送される。拡張現実サーバ97は、転送された現実空間の構体1の情報と、あらかじめネットワークサーバ96に格納されるライブラリ情報と、を照合する。そして、現実空間の構体1の情報に対応する仮想空間の構体1の情報を取得する。仮想空間の構体1の情報は、例えば3DCADデータに基づく情報等である。
 次に、ステップS40では、拡張現実サーバ97は、現実空間の構体1の情報に仮想空間の構体1の情報を重ねた拡張現実空間の構体1の情報を生成する。生成した拡張現実空間の構体1の情報は、拡張現実サーバ97の制御により透過型スクリーン94に投影する。
 次に、ステップS50では、拡張現実サーバ97は、現実空間の長尺ゲージ50の第1マーカ部52aの情報を取得し、取得した第1マーカ部52aに対応する第1プローブ53aに対応する仮想第1プローブ63aを仮想空間に生成する。さらに、拡張現実サーバ97は、現実空間の長尺ゲージ50の第2マーカ部52bの情報を取得し、取得した第2マーカ部52bに対応する第2プローブ53bに対応する仮想第2プローブ63bを仮想空間に生成する。
 次に、ステップS60に進むが、ステップS60からステップS170までは、定められた寸法測定が終了するまで寸法測定に関する動作を繰り返す。
 次に、ステップS70では、作業者90は、現実第1プローブ53aを一方の第1測定点Ra1nに近づける。この時、拡張現実サーバ97は、それを検知(所定距離まで近づいたことを検知)して、現実第1測定点Ra1nに対応する仮想第1測定点Ia1nを透過型スクリーン94に大きく表示させる。このときの大きさは作業者90が測定点の位置を容易に認識できるように、現実第1測定点Ra1nよりも十分に大きい大きさである。
 次に、ステップS80では、拡張現実サーバ97は、仮想第1プローブ63aと、大きく表示された仮想第1測定点Ia1nとの接触を判定する。接触ありと判定されるとステップS90へ進む。接触なしと判定されるとステップS70へ戻り、ステップS70の作業を作業者90に促す。具体的には、拡張現実サーバ97が透過型スクリーン94に現実第1プローブ53aを仮想第1測定点Ia1nに近づけるように促す表示をさせる等である。
 ステップS90では、拡張現実サーバ97は、接触ありと判断されている仮想第1測定点Ia1nの大きさを徐々に小さくするように透過型スクリーン94の表示を制御する。
 次に、ステップS100では、拡張現実サーバ97は、所定の大きさまで小さくされた仮想第1測定点Ia1nと、仮想第1プローブ63aとの接触を判定する。ここでの所定の大きさは、現実第1プローブ53aと現実第1測定点Ra1nが実際に接触できる大きさである。接触ありと判定されると接触が完了したと判断されステップS110へ進む。このとき当該接触が完了したことを、作業者90に知らせる表示を透過型スクリーン94に行ってもよい。接触なしと判定されるとステップS90へ戻る。
 次に、図12に示すように、ステップS110では、作業者90は、現実第2プローブ53bを(現実第1測定点Ra1nに対向する)他方の現実第2測定点Ra2nに近づける。この時、拡張現実サーバ97は、それを検知(所定距離まで近づいたことを検知)して、現実第2測定点Ra2nに対応する仮想第2測定点Ia2nを透過型スクリーン94に大きく表示させる。このときの大きさは作業者90が測定点の位置を容易に認識できるように、現実第2測定点Ra2nよりも十分に大きい大きさである。
 次に、ステップS120では、拡張現実サーバ97は、仮想第2プローブ63bと、大きく表示された仮想第2測定点Ia2nとの接触を判定する。接触ありと判定されるとステップS130へ進む。接触なしと判定されるとステップS110へ戻り、ステップS110の作業を作業者90に促す。具体的には、拡張現実サーバ97が透過型スクリーン94に現実第2プローブ53bを仮想第2測定点Ia2nに近づけるように促す表示をさせるなどである。
 ステップS130では、拡張現実サーバ97は、接触ありと判断されている仮想第2測定点Ia2nの大きさを徐々に小さくするように透過型スクリーン94の表示を制御する。
 次に、ステップS140では、拡張現実サーバ97は、所定の大きさまで小さくされた仮想第2測定点Ia2nと、仮想第2プローブ63bとの接触を判定する。ここでの所定の大きさは、現実第2プローブ53bと現実第2測定点Ra2nが実際に接触できる大きさである。接触ありと判定されると接触が完了したと判断されステップS150へ進む。このとき当該接触が完了したしたことを、作業者90に知らせる表示を透過型スクリーン94に行ってもよい。接触なしと判定されるとステップS130へ戻る。
 次に、ステップS150では、作業者90はカメラ93で長尺ゲージ50の表示部54の測定値を読み取る。ここでの読み取りは、作業者90が表示部54の測定値をカメラ93に映し出すことにより、拡張現実サーバ97により自動で(例えば画像認識等で)行うことができる。
 次に、ステップS160では、拡張現実サーバ97は、S150で取得した測定値を表(図9参照)に記入して格納する。合わせて、測定値が上限許容値から下限許容値の範囲内にあるか否かを判断して合否を判断して表に合否結果を記入して格納する。
 次に、ステップS170に行くと、ステップS60に戻る。そして、他の測定寸法の測定を行う。このようにして、図3で示したような各測定寸法に対して、ステップS60からステップS170までの各ステップを繰り返す。
 次に、ステップS180では、拡張現実サーバ97は、測定値を格納する表の全ての欄に測定値が格納されていることをチェックして、測定漏れの無いこと確認をする。全ての測定値が記入されていれば、ステップS190へ進む。全ての測定値が記入されていなければ、ステップS200へ進む。
 ステップS190では、拡張現実サーバ97は、構体1の寸法測定を完了する。
 図13に示すように、ステップS200では、拡張現実サーバ97は透過型スクリーン94に、未測定の一方の第1測定点と未測定の他方の第2測定点の位置を表示させる。ここでは、該当する測定点について色を変える、測定点を大きく表示する等して作業者90に知らせることができる。
 次に、ステップS210では、作業者90は、透過型スクリーン94に映し出される未測定の仮想第1測定点に現実第1プローブ53aを当接させる。このときステップS70と同様に仮想第1測定点を大きく表示させることができる。
 次に、ステップS220では、拡張現実サーバ97は、仮想第1プローブ63aと、大きく表示された未測定の仮想第1測定点との接触を判定する。接触ありと判定されればステップS230へ進み、接触なしと判定されればステップS210へ戻り、ステップS210の作業を作業者90に促す。
 ステップS230では、拡張現実サーバ97は、接触ありと判断されている未測定の仮想第1測定点の大きさを徐々に小さく表示するように透過型スクリーン94の表示を制御する。
 次に、ステップS240では、拡張現実サーバ97は、所定の大きさまで小さく表示された未測定の仮想第1測定点と、仮想第1プローブ63aとの接触を判定する。接触ありと判定されれば接触が完了したと判断されステップS250へ進む。接触なしと判定されればステップS230へ戻る。
 ステップS250では、作業者90は、透過型スクリーン94に映し出される未測定の仮想第2測定点に現実第2プローブ53bを当接させる。このときステップS110で示したように、仮想第2測定点を大きく表示させることができる。
 次に、ステップS260では、拡張現実サーバ97は、仮想第2プローブ63bと、大きく表示された未測定の仮想第2測定点との接触を判定する。接触ありと判定されればステップS270へ進み、接触なしと判定されればステップS250へ戻り、ステップS110の作業を作業者90に促す。
 ステップS270では、拡張現実サーバ97は、未測定の仮想第2測定点の大きさを徐々に小さくするように透過型スクリーン94の表示を制御する。
 次に、図14に示すように、ステップS280では、拡張現実サーバ97は、所定の大きさまで小さく表示された未測定の仮想第2測定点と、仮想第2プローブ63bとの接触を判定する。接触ありと判定されれば接触が完了したと判断されステップS290へ進む。接触なしと判定されればステップS270へ戻る。
 ステップS290では、作業者90は、カメラ93で長尺ゲージ50の表示部54の測定値を読み取る。ここでの読み取りは、作業者90が表示部54の測定値をカメラ93に映し出すことにより、拡張現実サーバ97により自動で(例えば画像認識等で)行うことができる。
 次に、ステップS300では、拡張現実サーバ97は、S290で取得した測定値を表(図9参照)に記入して格納する。合わせて、測定値が上限許容値から下限許容値の範囲内にあるか否かを判断して合否を判断して表に合否結果を記入して格納する。
 次に、ステップS310では、拡張現実サーバ97は、測定値を格納する表の全ての欄に測定値が格納されていることをチェックして、測定漏れの無いこと確認をする。表の全てに測定値が記載されていれば次のステップS320へ進む。表の全てに測定値が記載されていなければステップS200へ戻る。
 ステップS320では、拡張現実サーバ97は、構体1の寸法測定を完了する。
<効果>
 以上のように、拡張現実による寸法測定システムによって、設計図面を参照して各測定断面を特定したり、各測定断面内の測定点の位置を特定したりする作業を省略できる。これにより測定のための工数や作業者の人数を減らすことが可能となる。さらに、対向する2物体(面)の間の寸法する測定者が持つ長尺ゲージの両端部をあらかじめ構体の内面に設けられた2つの測定点に速やかに誘導することが可能となる。さらに、長尺ゲージの両端部が2つの測定点を捕捉したことを測定者に伝えることでより確実な測定を可能とする。さらに、長尺ゲージによって測定した測定データをサーバに格納してデータの履歴管理を確実に行うことで、測定漏れや測定ミスを防止できトレーサビリティを確保できる。さらに、測定寸法が適切であるかの合否判定を自動で行うことが可能となる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 
1…鉄道車両構体、10…台枠、14…透過型スクリーン、20…側構体、22…乗降口、24…窓、30…妻構体、40…屋根構体、50…長尺ゲージ、51a…第1ゲージ部、51b…第2ゲージ部、52a…第1マーカ部、52b…第2マーカ部、53a…第1プローブ、53b…第2プローブ、54…表示部、60…仮想長尺ゲージ、63a…仮想第1プローブ、63b…仮想第2プローブ、90…作業者、92…ウエアラブル装置、93…カメラ、94…透過型スクリーン、95…ネットワーク、96…ネットワークサーバ、97…拡張現実サーバ、100…寸法測定システム、300…コンピュータシステム、302…プロセッサ、302A…処理装置、304…メモリ、306…メモリバス、308…I/Oバス、309…バスインターフェースユニット、310…I/Oバスインターフェースユニット、312…端末インターフェースユニット、314…ストレージインターフェース、316…I/Oデバイスインターフェース、318…ネットワークインターフェース、320…ユーザI/Oデバイス、324…表示システム、326…表示装置、330…ネットワーク、350…潜在因子特定アプリケーション、Ra1n、Rb1n、Rc1n、Rh1n(n=A~K)…現実第1測定点、Ra2n、Rb2n、Rc2n、Rh2n(n=A~K)…現実第2測定点、Ia1n、Ib1n、1c1n、Ih1n(n=A~K)…仮想第1測定点、Ia2n、Ib2n、Ic2n、Ih2n(n=A~K)…仮想第2測定点、x…鉄道車両構体1の長手方向、y…鉄道車両構体1の幅方向、z…鉄道車両構体1の高さ方向

Claims (9)

  1.  現実空間に仮想空間を重ねて生成した拡張現実空間を用いる寸法測定方法であって、
     前記拡張現実空間は、カメラで撮影した映像を用いて処理部で処理して透過型スクリーンに表示することで生成し、
     前記寸法測定は、一方の現実測定点と他方の現実測定点の間を、前記一方の現実測定点に当接させる第1プローブと、前記他方の現実測定点に当接させる第2プローブと、を有するゲージを用いて測定し、
     前記仮想空間には、前記一方の現実測定点に対応する一方の仮想測定点と、前記他方の現実測定点に対応する他方の仮想測定点と、現実空間の前記第1プローブに対応する仮想第1プローブと、現実空間の前記第2プローブに対応する仮想第2プローブを表示し、
     前記仮想第1プローブと、前記一方の仮想測定点と、の接触を判定する第1ステップと、
     前記仮想第2プローブと、前記他方の仮想測定点と、の接触を判定する第2ステップと、
    を含むことを特徴とする拡張現実空間を用いる寸法測定方法。
  2.  請求項1に記載の拡張現実空間を用いる寸法測定方法において、
     前記ゲージは、前記第1プローブを備える第1ゲージ部と、前記第1ゲージ部に備えらえる第1マーカ部と、前記第2プローブを備える第2ゲージ部と、前記第2ゲージ部に備えらえる第2マーカ部と、を有しており、
     前記仮想空間には、前記第1マーカ部の情報に基づいて前記仮想第1プローブを表示するとともに、前記第2マーカ部の情報に基づいて前記仮想第2プローブを表示すること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  3.  請求項1に記載の拡張現実空間を用いる寸法測定方法において、
     前記一方の仮想測定点と前記仮想第1プローブとが接触すると、前記仮想空間において、前記一方の仮想測定点の大きさを徐々に小さく表示すること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  4.  請求項3に記載の拡張現実空間を用いる寸法測定方法において、
     前記一方の仮想測定点の大きさが所定の大きさまで小さくしたときに、前記一方の仮想測定点と前記仮想第1プローブが接触した場合に、前記第1ステップは前記仮想第1プローブと前記一方の仮想測定点との接触が完了したと判定すること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  5.  請求項1に記載の拡張現実空間を用いる寸法測定方法において、
     前記他方の仮想測定点と前記仮想第2プローブとが接触すると、前記仮想空間において、前記他方の仮想測定点の大きさを徐々に小さく表示すること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  6.  請求項5に記載の拡張現実空間を用いる寸法測定方法において、
     前記他方の仮想測定点の大きさが所定の大きさまで小さくしたときに、前記他方の仮想測定点と前記仮想第2プローブが接触した場合に、前記第2ステップは前記仮想第2プローブと前記他方の仮想測定点との接触が完了したと判定すること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  7.  請求項1に記載の拡張現実空間を用いる寸法測定方法において、
     前記ゲージは、前記第1プローブと、前記第2プローブと、の間の寸法を表示する表示部を有しており、
     前記第1ステップで前記仮想第1プローブと前記一方の仮想測定点との接触が完了と判定して、前記第2ステップで前記仮想第2プローブと前記他方の仮想測定点との接触が完了したと判定した後に、前記ゲージの寸法データを前記表示部から前記カメラを介して取得する第3ステップと、を備えること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  8.  請求項7に記載の拡張現実空間を用いる寸法測定方法において、
     前記第3ステップで前記表示部に表示される前記寸法データを前記カメラで取得した後に、画像処理をして、測定値として記録部に格納する第4ステップを備えること
    を特徴とする拡張現実空間を用いる寸法測定方法。
  9.  請求項1に記載の拡張現実空間を用いる寸法測定方法において、
     前記ゲージは、前記第1プローブと、前記第2プローブと、の間の寸法測定結果を送信する送信部を有しており、
     前記第1ステップで前記仮想第1プローブと前記一方の仮想測定点との接触が完了と判定して、前記第2ステップで前記仮想第2プローブと前記他方の仮想測定点との接触が完了したと判定した後に、前記送信部が前記ゲージの寸法データを送信することによって取得する第3ステップと、を備えること
    を特徴とする拡張現実空間を用いる寸法測定方法。
PCT/JP2022/000856 2022-01-13 2022-01-13 拡張現実による寸法測定方法 WO2023135697A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2022/000856 WO2023135697A1 (ja) 2022-01-13 2022-01-13 拡張現実による寸法測定方法
JP2023536200A JP7457339B2 (ja) 2022-01-13 2022-01-13 拡張現実による寸法測定方法
TW112101284A TW202342942A (zh) 2022-01-13 2023-01-12 利用擴增實境之尺寸量測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/000856 WO2023135697A1 (ja) 2022-01-13 2022-01-13 拡張現実による寸法測定方法

Publications (1)

Publication Number Publication Date
WO2023135697A1 true WO2023135697A1 (ja) 2023-07-20

Family

ID=87278649

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000856 WO2023135697A1 (ja) 2022-01-13 2022-01-13 拡張現実による寸法測定方法

Country Status (3)

Country Link
JP (1) JP7457339B2 (ja)
TW (1) TW202342942A (ja)
WO (1) WO2023135697A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277350A (ja) * 2005-03-29 2006-10-12 Canon Inc 情報処理方法、情報処理装置
JP2013104747A (ja) * 2011-11-11 2013-05-30 Nippon Telegr & Teleph Corp <Ntt> 作業位置誘導装置及びその誘導方法
US20150347849A1 (en) * 2014-06-02 2015-12-03 Tesa Sa Method for supporting an operator in measuring a part of an object
JP2017167863A (ja) * 2016-03-16 2017-09-21 富士通株式会社 3次元計測プログラム、3次元計測方法、および3次元計測システム
JP2020071065A (ja) * 2018-10-29 2020-05-07 株式会社ミツトヨ 測定データ収集装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277350A (ja) * 2005-03-29 2006-10-12 Canon Inc 情報処理方法、情報処理装置
JP2013104747A (ja) * 2011-11-11 2013-05-30 Nippon Telegr & Teleph Corp <Ntt> 作業位置誘導装置及びその誘導方法
US20150347849A1 (en) * 2014-06-02 2015-12-03 Tesa Sa Method for supporting an operator in measuring a part of an object
JP2017167863A (ja) * 2016-03-16 2017-09-21 富士通株式会社 3次元計測プログラム、3次元計測方法、および3次元計測システム
JP2020071065A (ja) * 2018-10-29 2020-05-07 株式会社ミツトヨ 測定データ収集装置およびプログラム

Also Published As

Publication number Publication date
JP7457339B2 (ja) 2024-03-28
JPWO2023135697A1 (ja) 2023-07-20
TW202342942A (zh) 2023-11-01

Similar Documents

Publication Publication Date Title
CN101785026B (zh) 用于确定摄像机相对于真实对象的位置和方向的方法和系统
CN100363880C (zh) 操作输入装置及操作输入方法
CN104094081A (zh) 利用条形码识别的检查方法
US20180094913A1 (en) Measuring system and measuring method
US20050174361A1 (en) Image processing method and apparatus
JP2021524014A (ja) コンピュータによる検査システム及び方法
US11403780B2 (en) Camera calibration device and camera calibration method
CN101164084A (zh) 图像处理方法和图像处理设备
CN103630071A (zh) 检测工件的方法和系统
JP2007004713A (ja) 画像処理方法、画像処理装置
JP2009503711A (ja) 第2の対象物に対する第1対象物の相対位置を決定する方法及びシステム及び、対応するコンピュータプログラム及び対応するコンピュータ可読記録媒体
CN112631431A (zh) Ar眼镜的位姿确定方法、装置及设备、存储介质
US20220215582A1 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
WO2023135697A1 (ja) 拡張現実による寸法測定方法
CN114051626A (zh) 联合环境重建和相机校准
CN104902840B (zh) 跟踪系统及利用上述跟踪系统的跟踪方法
AU758514B2 (en) Control device and method of controlling an object
JP2006145560A (ja) 倣いプローブの校正プログラムおよび校正方法
KR102069963B1 (ko) 이동체 계측 시스템, 및 계측 대상의 영역에 있어서의 인물의 수를 특정하는 방법
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
US11920913B2 (en) Conversion parameter calculation method, displacement amount calculation method, conversion parameter calculation device, and displacement amount calculation device
CN101113891B (zh) 光学式测量装置
JP2006215750A (ja) 画像処理方法、画像処理装置
CN113384347B (zh) 一种机器人标定方法、装置、设备及存储介质
JP7431220B2 (ja) 基準位置設定方法及び操作検出装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023536200

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22920222

Country of ref document: EP

Kind code of ref document: A1