WO2023188510A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2023188510A1 WO2023188510A1 PCT/JP2022/041770 JP2022041770W WO2023188510A1 WO 2023188510 A1 WO2023188510 A1 WO 2023188510A1 JP 2022041770 W JP2022041770 W JP 2022041770W WO 2023188510 A1 WO2023188510 A1 WO 2023188510A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- dimensional
- interest
- images
- dimensional image
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims description 143
- 238000000034 method Methods 0.000 claims description 99
- 238000007689 inspection Methods 0.000 description 196
- 238000005516 engineering process Methods 0.000 description 52
- 238000010586 diagram Methods 0.000 description 24
- 238000000605 extraction Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 16
- 230000001133 acceleration Effects 0.000 description 12
- 239000000284 extract Substances 0.000 description 7
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 239000011150 reinforced concrete Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Definitions
- the technology of the present disclosure relates to an image processing device, an image processing method, and a program.
- JP 2020-005186 A discloses an image display system configured by a computer system.
- the computer system inputs an image group including a plurality of images with different shooting dates and times, positions, and directions, displays a list of the image groups on a list screen, and selects the first image from the image group based on the user's operation. Display images on separate screens. Further, the computer system determines the spatial relationship between the first image and candidate images spatially surrounding the first image, and determines the overlapping state regarding the shooting range. An image adjacent to the image is determined, an image adjacent to the first image is selected as a second image on the individual screen based on a user's operation, and the second image is displayed as a new first image.
- Japanese Unexamined Patent Publication No. 2007-093661 discloses a navigation device that is mounted on a vehicle and that simultaneously displays a first map and a second map that has a different representation form from the first map.
- the navigation device includes a display device, a map display means, a current position calculation means, a current position display means, and a position specification reception means.
- the map display means displays the first map and the second map in different display areas of the display device.
- the current position calculation means calculates the current position.
- the current position display means displays a current position mark representing the current position calculated by the current position calculation means on at least one of the first map and the second map displayed by the map display means.
- the location designation receiving means receives designation of a location on the display area where the first map is displayed from the user.
- the map display means displays the second map in a form that allows identification of a position on the second map representing the same point as the point on the first map corresponding to the position for which the position designation means has accepted the designation. do.
- Japanese Unexamined Patent Publication No. 2010-200024 discloses a stereoscopic image display device.
- the stereoscopic image display device includes a display means, an instruction input means, an alignment means, and a display control means.
- the display means displays a list of thumbnail images generated from the captured images before stereoscopically displaying the captured images captured from a plurality of viewpoints.
- the instruction input means receives a selection instruction for selecting a thumbnail image in the list.
- the alignment means aligns captured images from multiple viewpoints corresponding to the selected thumbnail image with each other in a detection area of a specific target in the captured image when the selection instruction is input and the captured images are displayed in three dimensions.
- the display control means adds detection area information indicating the detection area of the specific target to the thumbnail image.
- One embodiment of the technology of the present disclosure is, for example, an image processing device that can visually grasp the correspondence between each two-dimensional image and a region corresponding to each two-dimensional image of a target object. , an image processing method, and a program.
- a first aspect of the technology of the present disclosure includes a processor, and the processor selects a plurality of two-dimensional images used to generate a three-dimensional image showing an object in real space, and one of the three-dimensional images.
- a plurality of two-dimensional images and a three-dimensional image that are associated with a plurality of parts of the image are displayed on the screen in a comparable state, and a two-dimensional image of interest is selected from the plurality of two-dimensional images according to a given selection instruction.
- is an image processing device that displays a portion of interest corresponding to a two-dimensional image of interest among a plurality of portions on a screen in a visually identifiable state.
- a second aspect of the technology of the present disclosure is that in the image processing device according to the first aspect, a state in which a plurality of two-dimensional images and a three-dimensional image can be compared refers to a state in which a plurality of two-dimensional images and a three-dimensional image can be compared.
- This is an image processing device in which a region and a second region including a three-dimensional image are arranged side by side.
- a third aspect of the technology of the present disclosure is that in the image processing device according to the first aspect or the second aspect, a state in which the portion of interest can be visually identified means that the portion of interest is one of a plurality of portions. It is an image processing device that includes a state that is distinguishable from the rest.
- a fourth aspect of the technology of the present disclosure is that in the image processing apparatus according to any one of the first to third aspects, the state in which the portion of interest can be visually identified means that the portion of interest can be visually specified.
- the image processing apparatus is an image processing apparatus in which an image includes a state that is distinguishable from the remaining two-dimensional images among a plurality of two-dimensional images.
- a fifth aspect of the technology of the present disclosure is that in the image processing apparatus according to any one of the first to fourth aspects, the processor performs imaging to obtain a plurality of two-dimensional images.
- a plurality of position specifying images capable of specifying a plurality of imaging positions are displayed on a screen in a state that can be compared with a three-dimensional image, and according to a selection instruction, an image corresponding to a position specifying image of interest selected from the plurality of position specifying images is captured.
- This image processing device selects a position from a plurality of imaging positions as a focused imaging position, and selects a two-dimensional image obtained by imaging from the focused imaging position from among the plurality of two-dimensional images as a focused two-dimensional image.
- a state in which a plurality of position specific images and a three-dimensional image can be compared means a state in which a plurality of position specific images and a three-dimensional image can be compared.
- This is an image processing apparatus including a state in which the two are opposed to each other.
- a seventh aspect of the technology of the present disclosure is that in the image processing device according to the fifth aspect or the sixth aspect, a state in which a plurality of two-dimensional images and a three-dimensional image can be compared refers to a state in which a plurality of two-dimensional images and a three-dimensional image can be compared.
- This is an image processing device in which a third area including an image and a fourth area including an image showing an aspect in which a plurality of position specifying images and a three-dimensional image are opposed are arranged side by side.
- An eighth aspect of the technology of the present disclosure is that in the image processing device according to any one of the fifth to seventh aspects, the state in which the portion of interest can be visually specified means that the position of interest can be identified.
- the image processing apparatus includes a state in which an image is distinguishable from remaining position specifying images among a plurality of position specifying images.
- a ninth aspect of the technology of the present disclosure is an image processing apparatus according to any one of the fifth to eighth aspects, wherein the image processing apparatus processes a plurality of two-dimensional images and three-dimensional images.
- the processor has a first operation mode in which a plurality of position identification images are displayed on the screen in a state that can be compared with a three-dimensional image, and a second operation mode in which a plurality of position identification images are displayed on the screen in a state in which they can be compared with a three-dimensional image.
- the image processing apparatus sets one of a first operation mode and a second operation mode according to instructions.
- a tenth aspect of the technology of the present disclosure is that in the image processing apparatus according to any one of the fifth to ninth aspects, the three-dimensional image is displayed on the screen at a viewpoint corresponding to the two-dimensional image of interest. This is an image processing device displayed on the screen.
- An eleventh aspect of the technology of the present disclosure includes a processor, and the processor selects a plurality of two-dimensional images used to generate a three-dimensional image showing an object in real space, and one of the three-dimensional images.
- a plurality of two-dimensional images and a three-dimensional image which are associated with a plurality of parts of
- An image processing device that selects a two-dimensional image of interest corresponding to a portion of interest among the two-dimensional images, and displays the two-dimensional image of interest on a screen in a state in which it is distinguishable from the remaining two-dimensional images among the plurality of two-dimensional images. It is.
- a twelfth aspect of the technology of the present disclosure is that in the image processing apparatus according to the eleventh aspect, the processor can detect a plurality of imaging positions capable of specifying a plurality of imaging positions where imaging is performed to obtain a plurality of two-dimensional images.
- the position specifying image is displayed on the screen in a state that can be compared with the three-dimensional image, the target position specifying image is selected from the plurality of position specifying images according to the selection instruction, and imaging is performed from the imaging position specified from the target position specifying image.
- This is an image processing device that selects a two-dimensional image obtained by scanning the image as a two-dimensional image of interest from among a plurality of two-dimensional images.
- a thirteenth aspect of the technology of the present disclosure is a plurality of two-dimensional images used to generate a three-dimensional image showing an object in real space, the plurality of two-dimensional images being associated with a plurality of parts of the three-dimensional images.
- This is an image processing method that includes displaying a portion of interest that corresponds to a two-dimensional image of interest on a screen in a visually identifiable manner.
- a fourteenth aspect of the technology of the present disclosure is a plurality of two-dimensional images used to generate a three-dimensional image showing an object in real space, the plurality of two-dimensional images being associated with a plurality of parts of the three-dimensional images.
- This is a program for causing a computer to execute a process that includes displaying a portion of interest corresponding to a two-dimensional image of interest on a screen in a visually identifiable state.
- FIG. 1 is a perspective view showing an example of an inspection system according to a first embodiment.
- FIG. 1 is a block diagram showing an example of an inspection support device according to a first embodiment.
- FIG. 1 is a block diagram showing an example of an imaging device according to a first embodiment.
- FIG. 2 is a block diagram illustrating an example of a functional configuration for realizing inspection support information generation processing according to the first embodiment.
- FIG. 2 is a block diagram showing an example of data transmitted from the imaging device to the inspection support device according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of an acquisition unit and a three-dimensional image generation unit according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of a functional configuration for realizing inspection support processing according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of operations of an operation mode setting section, a first mode processing section, a second mode processing section, and a third mode processing section according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of the first display control unit according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of the first image selection unit according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of a first pixel extraction section and a first image generation section according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of a first image generation section and a first display control section according to the first embodiment.
- FIG. 3 is a block diagram illustrating an example of the operation of the second display control section according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of the second image selection section according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of a second pixel extraction section and a second image generation section according to the first embodiment.
- FIG. 2 is a block diagram illustrating an example of the operation of a second image generation section and a second display control section according to the first embodiment.
- FIG. 3 is a block diagram illustrating an example of the operation of the third display control section according to the first embodiment.
- FIG. 3 is a block diagram illustrating an example of the operation of a third image selection unit according to the first embodiment.
- FIG. 3 is a block diagram illustrating an example of the operation of the third image generation section according to the first embodiment.
- FIG. 3 is a block diagram illustrating an example of the operation of a third image generation section and a third display control section according to the first embodiment. It is a flowchart which shows an example of the flow of inspection support information generation processing concerning a 1st embodiment.
- FIG. 7 is a block diagram illustrating an example of the operation of a fourth image selection unit according to the second embodiment.
- FIG. 7 is a block diagram illustrating an example of the operation of a fourth pixel extraction section and a fourth image generation section according to the second embodiment.
- FIG. 7 is a block diagram illustrating an example of the operation of a fourth image generation section and a fourth display control section according to the second embodiment. It is a flow chart which shows an example of inspection support processing concerning a 2nd embodiment.
- CPU is an abbreviation for "Central Processing Unit”.
- GPU is an abbreviation for “Graphics Processing Unit.”
- HDD is an abbreviation for “Hard Disk Drive.”
- SSD is an abbreviation for “Solid State Drive.”
- RAM is an abbreviation for "Random Access Memory.”
- SRAM is an abbreviation for "Static Random Access Memory.”
- DRAM is an abbreviation for "Dynamic Random Access Memory.”
- EL is an abbreviation for "Electro Luminescence”.
- RAM is an abbreviation for "Random Access Memory.”
- CMOS is an abbreviation for “Complementary Metal Oxide Semiconductor.”
- GNSS is an abbreviation for “Global Navigation Satellite System.”
- GPS is an abbreviation for “Global Positioning System.”
- SfM is an abbreviation for “Structure from Motion.”
- MVS is an abbreviation for “Multi-View Stereo.”
- TPU is an abbreviation for “Tensor Processing Unit”.
- USB is an abbreviation for “Universal Serial Bus.”
- ASIC is an abbreviation for “Application Specific Integrated Circuit.”
- FPGA is an abbreviation for "Field-Programmable Gate Array.”
- PLD is an abbreviation for “Programmable Logic Device”.
- SoC is an abbreviation for "System-on-a-chip.”
- IC is an abbreviation for "Integrated Circuit.”
- the inspection system S includes an inspection support device 10 and an imaging device 100.
- the inspection system S is a system for inspecting the object 4 in real space.
- the target object 4 is an example of the "target object" of the technology of the present disclosure.
- the target object 4 is a reinforced concrete bridge pier.
- a bridge pier is mentioned here as an example of the target object 4
- the target object 4 may be road equipment other than a bridge pier. Examples of road equipment include road surfaces, tunnels, guardrails, traffic lights, and/or windbreak fences.
- the object 4 may be social infrastructure other than road equipment (for example, airport equipment, port equipment, water storage equipment, gas equipment, medical equipment, firefighting equipment, and/or educational equipment, etc.), May be personal property.
- the target object 4 may be land (for example, state-owned land and/or private land).
- the pier illustrated as the object 4 may be a pier other than one made of reinforced concrete.
- inspection refers to, for example, inspecting the state of the object 4.
- the inspection system S inspects the presence or absence of damage to the object 4 and/or the degree of damage.
- the inspection support device 10 is an example of an "image processing device" according to the technology of the present disclosure.
- the inspection support device 10 is, for example, a desktop personal computer. Although a desktop personal computer is exemplified here as the inspection support device 10, this is merely an example, and a notebook personal computer may also be used. Further, the computer is not limited to a personal computer, and may be a server.
- the server may be a mainframe used with the inspection support device 10 on-premises, or may be an external server realized by cloud computing. Further, the server may be an external server realized by network computing such as fog computing, edge computing, or grid computing.
- the inspection support device 10 is communicably connected to the imaging device 100.
- the inspection support device 10 is used by an inspector 6.
- the inspection support device 10 may be used at the site where the object 4 is installed, or may be used at a location different from the site where the object 4 is installed.
- the imaging device 100 is, for example, a digital camera with interchangeable lenses.
- an interchangeable lens digital camera is illustrated as the imaging device 100, but this is just an example, and is a digital camera built into various electronic devices such as smart devices or wearable terminals. Good too.
- the imaging device 100 may be a glasses-type eyewear terminal or a head-mounted display terminal worn on the head.
- the imaging device 100 is used by an imaging person 8.
- the inspection support device 10 includes a computer 12, a reception device 14, a display 16, and a communication device 18.
- the computer 12 is an example of a "computer” according to the technology of the present disclosure.
- Computer 12 includes a processor 20, storage 22, and RAM 24.
- the processor 20 is an example of a "processor” according to the technology of the present disclosure.
- Processor 20 , storage 22 , RAM 24 , reception device 14 , display 16 , and communication device 18 are connected to bus 26 .
- the processor 20 includes, for example, a CPU, and controls the entire inspection support device 10. Although an example in which the processor 20 includes a CPU is given here, this is just an example.
- processor 20 may include a CPU and a GPU. In this case, for example, the GPU operates under the control of the CPU and is responsible for executing image processing.
- the storage 22 is a nonvolatile storage device that stores various programs, various parameters, and the like. Examples of the storage 22 include an HDD and an SSD. Note that the HDD and SSD are just examples, and flash memory, magnetoresistive memory, and/or ferroelectric memory may be used instead of or in conjunction with the HDD and/or SSD. .
- the RAM 24 is a memory in which information is temporarily stored, and is used by the processor 20 as a work memory. Examples of the RAM 24 include DRAM and/or SRAM.
- the reception device 14 has a keyboard, a mouse, a touch panel, etc. (all not shown), and receives various instructions from the inspector 6.
- Display 16 has a screen 16A.
- the screen 16A is an example of a "screen” according to the technology of the present disclosure.
- the display 16 displays various information (eg, images, characters, etc.) on the screen 16A under the control of the processor 20.
- Examples of the display 16 include an EL display (eg, an organic EL display or an inorganic EL display). Note that the display is not limited to the EL display, and may be other types of displays such as a liquid crystal display.
- the communication device 18 is communicably connected to the imaging device 100.
- the communication device 18 is connected to the imaging device 100 for wireless communication using a predetermined wireless communication standard.
- the predetermined wireless communication standard include Wi-Fi (registered trademark) and Bluetooth (registered trademark).
- the communication device 18 is in charge of exchanging information with the inspection support device 10. For example, the communication device 18 transmits information in response to a request from the processor 20 to the imaging device 100. Furthermore, the communication device 18 receives information transmitted from the imaging device 100 and outputs the received information to the processor 20 via the bus 26 . Note that the communication device 18 may be communicably connected to the imaging device 100 by wire.
- the imaging device 100 includes a computer 102, an image sensor 104, a positioning unit 106, an acceleration sensor 108, an angular velocity sensor 110, and a communication device 112.
- the computer 102 includes a processor 114, a storage 116, and a RAM 118.
- Processor 114 , storage 116 , RAM 118 , image sensor 104 , positioning unit 106 , acceleration sensor 108 , angular velocity sensor 110 , and communication device 112 are connected to bus 120 .
- the processor 114, the storage 116, and the RAM 118 are realized by, for example, the same hardware as the processor 20, the storage 22, and the RAM 24 provided in the inspection support device 10 described above.
- the image sensor 104 is, for example, a CMOS image sensor. Note that although a CMOS image sensor is exemplified here as the image sensor 104, the technology of the present disclosure is not limited to this, and other image sensors may be used.
- the image sensor 104 captures an image of a subject (for example, the target object 4) and outputs image data obtained by capturing the image.
- the positioning unit 106 is a device that detects the position of the imaging device 100.
- the position of the imaging device 100 is detected using, for example, GNSS (eg, GPS).
- the positioning unit 106 includes a GNSS receiver (not shown).
- a GNSS receiver receives, for example, radio waves transmitted from multiple satellites.
- the positioning unit 106 detects the position of the imaging device 100 based on radio waves received by the GNSS receiver, and outputs positioning data (for example, data indicating latitude, longitude, and altitude) according to the detected position.
- the acceleration sensor 108 detects acceleration in the pitch, yaw, and roll axis directions of the imaging device 100.
- the acceleration sensor 108 outputs acceleration data corresponding to acceleration in each axis direction of the imaging device 100.
- the angular velocity sensor 110 detects the angular velocity around each of the pitch axis, yaw axis, and roll axis of the imaging device 100.
- the angular velocity sensor 110 outputs angular velocity data according to the angular velocity around each axis of the imaging device 100.
- the processor 114 acquires the position of the imaging device 100 based on the positioning data and/or acceleration data, and generates position data indicating the acquired position. Furthermore, the processor 114 obtains the attitude of the imaging device 100 (that is, the amount of change in attitude with respect to the reference attitude defined in the relative coordinate system) based on the angular velocity data, and generates attitude data indicating the obtained attitude.
- the position of the imaging device 100 will be referred to as an "imaging position”
- the attitude of the imaging device 100 will be referred to as an "imaging posture.”
- the processor 114 acquires the imaging position based only on positioning data
- the acceleration sensor 108 may be omitted.
- the positioning unit 106 may be omitted.
- the processor 114 acquires the imaging position based on the positioning data
- the imaging position in the absolute coordinate system is derived based on the positioning data.
- the processor 114 acquires the imaging position based on acceleration data
- the amount of change in the imaging position with respect to the reference position defined in the relative coordinate system is derived based on the acceleration data.
- the communication device 112 is communicably connected to the inspection support device 10.
- the communication device 112 is realized, for example, by the same hardware as the communication device 18 included in the above-described inspection support device 10.
- the imaging device 100 transmits image data, position data, and posture data to the inspection support device 10.
- the image data is data indicating a two-dimensional image 50 obtained by capturing an image of the object 4 by the imaging device 100.
- the position data is data indicating the imaging position when the imaging device 100 performs imaging, and is associated with the image data.
- the posture data is data indicating the imaging posture when the imaging device 100 performs imaging, and is associated with the image data. That is, the position data and orientation data are incidental data attached to the image data.
- the inspection support device 10 performs inspection support information generation processing and inspection support processing. The inspection support information generation process and the inspection support process performed by the inspection support device 10 will be described in detail below.
- an inspection support information generation program 30 is stored in the storage 22 of the inspection support device 10.
- the processor 20 of the inspection support device 10 reads the inspection support information generation program 30 from the storage 22 and executes the read inspection support information generation program 30 on the RAM 24.
- the processor 20 performs an inspection support information generation process to generate the inspection support information 56 according to the inspection support information generation program 30 executed on the RAM 24 .
- the inspection support information generation process is realized by the processor 20 operating as an acquisition unit 32, a three-dimensional image generation unit 34, and an inspection support information generation unit 36 according to the inspection support information generation program 30.
- a plurality of points P1 located in the circumferential direction of the object 4 indicate imaging positions by the imaging device 100.
- the imager 8 images the object 4 from a plurality of imaging positions in the circumferential direction of the object 4 using the imaging device 100 while moving around the object 4 .
- the imager 8 images different regions of the object 4 using the imaging device 100 from each imaging position. Different regions of the object 4 are imaged by the imaging device 100 from each imaging position, so that the entire object 4 including a plurality of regions is imaged.
- the imaging position (i.e., point P1) corresponding to each two-dimensional image 50 obtained by imaging by the imaging device 100 corresponds to the starting point of the line of sight L focused on the object 4, and each two-dimensional image 50
- the imaging posture corresponding to corresponds to the direction of the line of sight L focused on the object 4.
- a point P2 where the object 4 and the line of sight L intersect corresponds to a viewpoint when the object 4 is viewed from the line of sight L.
- the imager 8 images the object 4 from each imaging position while moving around the object 4 with the imaging device 100, but the imaging device 100 is mounted on a moving body,
- the target object 4 may be imaged by the imaging device 100 from each imaging position.
- the mobile object may be, for example, a drone, a gondola, a trolley, a vehicle for working at high altitudes, an automatic guided vehicle, or other vehicles.
- the imaging device 100 stores image data representing a two-dimensional image 50 obtained by imaging from each imaging position, position data representing the imaging position at which the imaging was performed, and posture representing the imaging posture at the time the imaging was performed. Associate with data. Then, the imaging device 100 transmits each image data and the position data and posture data associated with each image data to the inspection support device 10.
- the acquisition unit 32 acquires a two-dimensional image 50 based on each image data received by the inspection support device 10. Furthermore, the acquisition unit 32 acquires an imaging position corresponding to each two-dimensional image 50 based on each position data received by the inspection support device 10. Further, the acquisition unit 32 acquires an imaging posture corresponding to each two-dimensional image 50 based on each posture data received by the inspection support device 10.
- the three-dimensional image generation unit 34 generates a three-dimensional image 52 showing the object 4 based on the plurality of two-dimensional images 50 acquired by the acquisition unit 32.
- Image processing techniques for generating the three-dimensional image 52 based on the plurality of two-dimensional images 50 include SfM, MVS, epipolar geometry, stereo matching processing, and the like.
- the positions of the plurality of pixels included in the three-dimensional image 52 are specified by the plurality of three-dimensional coordinates obtained from the plurality of two-dimensional images 50.
- the three-dimensional image 52 is a three-dimensional model defined by a plurality of three-dimensional coordinates.
- the three-dimensional image 52 generated by the three-dimensional image generation unit 34 has a plurality of portions 54 corresponding to each two-dimensional image 50.
- Each portion 54 is formed by a pixel group that is a set of pixels corresponding to each two-dimensional image 50.
- the inspection support information generation unit 36 generates each two-dimensional image 50 acquired by the acquisition unit 32, an imaging position corresponding to each two-dimensional image 50, an imaging posture corresponding to each two-dimensional image 50, and each two-dimensional image.
- Inspection support information 56 is generated which is information in which the portion 50 and the portion 54 corresponding to the portion 50 are associated with each other. Inspection support information 56 is stored in storage 22.
- an inspection support program 40 is stored in the storage 22 of the inspection support device 10.
- the inspection support program 40 is an example of a "program" according to the technology of the present disclosure.
- the processor 20 reads the inspection support program 40 from the storage 22 and executes the read inspection support program 40 on the RAM 24.
- the processor 20 performs an inspection support process to support the inspection by the inspector 6 (see FIG. 1) according to the inspection support program 40 executed on the RAM 24.
- the inspection support process is realized by the processor 20 operating as an operation mode setting section 42, a first mode processing section 44, a second mode processing section 46, and a third mode processing section 48 according to the inspection support program 40.
- the inspection support device 10 has a first mode, a second mode, and a third mode as operating modes.
- the operation mode setting unit 42 performs mode setting processing to selectively set the first mode, second mode, and third mode as the operation modes of the inspection support device 10.
- the processor 20 operates as the first mode processing unit 44.
- the first mode processing unit 44 performs first mode processing.
- the first mode processing is realized by the first mode processing section 44 operating as a first display control section 44A, a first image selection section 44B, a first pixel extraction section 44C, and a first image generation section 44D. .
- the processor 20 operates as the second mode processing unit 46.
- the second mode processing unit 46 performs second mode processing.
- the second mode processing is realized by the second mode processing section 46 operating as a second display control section 46A, a second image selection section 46B, a second pixel extraction section 46C, and a second image generation section 46D. .
- the processor 20 operates as the third mode processing unit 48.
- the third mode processing unit 48 performs third mode processing.
- the third mode processing is realized by the third mode processing section 48 operating as a third display control section 48A, a third image selection section 48B, and a third image generation section 48C.
- the operation mode setting unit 42 sets the first mode as the operation mode of the inspection support device 10 by default.
- the operation mode setting section 42 sets the operation mode of the inspection support device 10 to the first mode
- the first display control section 44A displays the first image 61 on the screen 16A.
- the first image 61 includes a second mode setting button 72 and a third mode setting button 73 as soft keys.
- the receiving device 14 When the receiving device 14 receives a setting instruction that is an instruction to press the second mode setting button 72 while the first image 61 is displayed on the screen 16A, the receiving device 14 receives the second mode setting instruction signal. Output to processor 20. Similarly, when the receiving device 14 receives a setting instruction that is an instruction to press the third mode setting button 73 while the first image 61 is displayed on the screen 16A, the receiving device 14 sets the third mode. An instruction signal is output to the processor 20.
- the operation mode setting unit 42 determines whether the second mode setting instruction signal or the third mode setting instruction signal is input to the processor 20 when the operation mode of the inspection support device 10 is set to the first mode. do. When the second mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the second mode as the operation mode of the inspection support device 10. On the other hand, when the third mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the third mode as the operation mode of the inspection support device 10.
- the second display control unit 46A displays the second image 62 on the screen 16A.
- the second image 62 includes a first mode setting button 71 and a third mode setting button 73 as soft keys.
- the reception device 14 When the reception device 14 receives a setting instruction that is an instruction to press the first mode setting button 71 while the second image 62 is displayed on the screen 16A, the reception device 14 receives the first mode setting instruction signal. Output to processor 20. Similarly, when the receiving device 14 receives a setting instruction that is an instruction to press the third mode setting button 73 while the second image 62 is displayed on the screen 16A, the receiving device 14 sets the third mode. An instruction signal is output to the processor 20.
- the operation mode setting unit 42 determines whether the first mode setting instruction signal or the third mode setting instruction signal is input to the processor 20 when the operation mode of the inspection support device 10 is set to the second mode. do. When the first mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the first mode as the operation mode of the inspection support device 10. On the other hand, when the third mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the third mode as the operation mode of the inspection support device 10.
- the third display control unit 48A displays the third image 63 on the screen 16A.
- the third image 63 includes a first mode setting button 71 and a second mode setting button 72.
- the reception device 14 When the reception device 14 receives a setting instruction that is an instruction to press the first mode setting button 71 while the third image 63 is displayed on the screen 16A, the reception device 14 receives the first mode setting instruction signal. Output to processor 20. Similarly, when the receiving device 14 receives a setting instruction that is an instruction to press the third mode setting button 73 while the third image 63 is displayed on the screen 16A, the receiving device 14 sets the third mode. An instruction signal is output to the processor 20.
- the operation mode setting unit 42 determines whether the first mode setting instruction signal or the second mode setting instruction signal is input to the processor 20 when the operation mode of the inspection support device 10 is set to the third mode. do. When the first mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the first mode as the operation mode of the inspection support device 10. On the other hand, when the second mode setting instruction signal is input to the processor 20, the operation mode setting unit 42 sets the second mode as the operation mode of the inspection support device 10.
- the mode setting instruction signal is referred to as a "mode setting instruction signal.”
- the second mode among the plurality of operation modes of the inspection support device 10 is an example of the "first operation mode” according to the technology of the present disclosure.
- the third mode of the plurality of operation modes of the inspection support device 10 is an example of the "second operation mode” according to the technology of the present disclosure.
- FIG. 10 shows a state in which the first image 61 is displayed on the screen 16A.
- the first image 61 includes a first image area 81 and a second image area 82.
- the first image area 81 and the second image area 82 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the first image 61.
- the first image area 81 includes a plurality of two-dimensional images 50
- the second image area 82 includes a three-dimensional image 52.
- the first display control unit 44A includes a plurality of two-dimensional images 50 in the first image area 81 based on the plurality of two-dimensional images 50 included in the inspection support information 56. Further, the first display control unit 44A includes the three-dimensional image 52 in the second image area 82 based on the three-dimensional image 52 included in the inspection support information 56.
- the first image area 81 includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50.
- the predetermined number is set, for example, by the inspector 6 giving an instruction to the reception device 14 (see FIG. 9) to specify the predetermined number. Further, for example, when the inspector 6 gives an instruction to the reception device 14 to scroll the first image area 81, the first image area 81 is scrolled. Dimensional image 50 is modified.
- the second image area 82 includes the three-dimensional image 52 rendered as a two-dimensional image.
- the size of the three-dimensional image 52 is changed by the inspector 6 giving an instruction to change the size of the three-dimensional image 52 to the reception device 14 (see FIG. 9). Further, for example, when the inspector 6 gives an instruction to the reception device 14 to rotate the three-dimensional image 52, the three-dimensional image 52 is rotated.
- the plurality of two-dimensional images 50 and the three-dimensional image The image 52 becomes available for comparison.
- FIG. 10 an example is shown in which the first image area 81 and the second image area 82 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the first image 61.
- the first image area 81 and the second image area 82 may be displayed on the screen 16A in a state in which they are lined up in the vertical direction of the first image 61, and the first image area 81 may be a part of the second image area 82.
- the first image area 81 and the second image area 82 may be displayed on the screen 16A while being incorporated into the screen.
- the two-dimensional image 50 is an example of a "two-dimensional image” according to the technology of the present disclosure.
- the three-dimensional image 52 is an example of a "three-dimensional image” according to the technology of the present disclosure.
- the first image area 81 is an example of a "first area” according to the technology of the present disclosure.
- the second image area 82 is an example of a "second area” according to the technology of the present disclosure.
- the receiving device 14 receives a selection instruction, which is an instruction to select, the receiving device 14 outputs a selection instruction signal indicating the selection instruction to the processor 20.
- the selection instruction is an example of a "selection instruction" according to the technology of the present disclosure.
- the first image selection unit 44B selects two images corresponding to the selection instruction from among the plurality of two-dimensional images 50 included in the inspection support information 56 according to the selection instruction indicated by the selection instruction signal.
- a dimensional image 50 (hereinafter referred to as "attention two-dimensional image 50A") is selected.
- the two-dimensional image of interest 50A is an example of a "two-dimensional image of interest” according to the technology of the present disclosure.
- the first pixel extraction unit 44C acquires the imaging position and imaging posture corresponding to the two-dimensional image of interest 50A from the inspection support information 56. Furthermore, the first pixel extraction unit 44C derives a viewpoint corresponding to the two-dimensional image of interest 50A based on the acquired imaging position and imaging orientation. The first pixel extraction unit 44C then extracts pixels for including the three-dimensional image 52 in the second image area 82 from the three-dimensional image 52 included in the inspection support information 56 at the derived viewpoint. In addition, when extracting pixels from the three-dimensional image 52, the first pixel extraction unit 44C extracts pixels from the three-dimensional image 52 to include the entire three-dimensional image 52 in the second image area 82. do.
- the first image generation unit 44D includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the first image generation unit 44D generates a first image in a mode in which the two-dimensional image of interest 50A is surrounded by a frame 90.
- One image area 81 is generated.
- the first image generation unit 44D also generates a three-dimensional image having a size that fits entirely within the second image area 82 from a viewpoint corresponding to the two-dimensional image of interest 50A, based on the pixels extracted by the first pixel extraction unit 44C.
- a second image region 82 containing the image 52 is generated.
- the three-dimensional image 52 is included in the second image area 82 such that the viewpoint corresponding to the two-dimensional image of interest 50A is located at the center 82C of the second image area 82.
- the first image generation unit 44D generates the first image 61 by combining the generated first image area 81 and second image area 82.
- the first display control unit 44A outputs first image data indicating the first image 61 generated by the first image generation unit 44D to the display 16.
- the first image 61 is displayed on the screen 16A of the display 16.
- a predetermined number of two-dimensional images 50 out of the plurality of two-dimensional images 50 are displayed on the screen 16A while being included in the first image area 81, and the two-dimensional image of interest 50A is surrounded by a frame 90. It is displayed on the screen 16A in a state where the image is displayed.
- the two-dimensional image 50A of interest is distinguishable from the remaining two-dimensional images 50 among the plurality of two-dimensional images 50. become.
- the three-dimensional image 52 is displayed on the screen 16A at a viewpoint corresponding to the two-dimensional image of interest 50A and in a size that fits entirely within the second image area 82.
- a portion 54 of the three-dimensional image 52 corresponding to the two-dimensional image of interest 50A (hereinafter referred to as "portion of interest 54A") is displayed. ) becomes visually identifiable.
- portion 54 is an example of a “portion” according to the technology of the present disclosure
- the portion of interest 54A of the three-dimensional image 52 is an example of the “portion of interest” according to the technology of the present disclosure.
- the two-dimensional image of interest 50A is displayed on the screen 16A surrounded by a frame 90.
- the two-dimensional image 50A of interest may be displayed on the screen 16A in a manner distinguishable from the remaining two-dimensional images 50 in another manner.
- the two-dimensional image of interest 50A may be expressed in a different color from the remaining two-dimensional images 50, the two-dimensional image of interest 50A may have a pattern, or the two-dimensional image of interest 50A may be the other two-dimensional image. It may be displayed on the screen 16A in a manner such that the brightness is higher than that of 50. Even in such an example, the two-dimensional image of interest 50A becomes distinguishable from the remaining two-dimensional images 50.
- FIG. 14 shows a state in which the second image 62 is displayed on the screen 16A.
- the second image 62 includes a first image area 81 and a third image area 83.
- the first image area 81 and the third image area 83 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the second image 62.
- the first image area 81 is similar to the first image area 81 of the first image 61 (see FIG. 10).
- the third image area 83 includes the three-dimensional image 52.
- the third image area 83 is an example of a "second area" according to the technology of the present disclosure.
- the second display control unit 46A includes a plurality of two-dimensional images 50 in the first image area 81 based on the plurality of two-dimensional images 50 included in the inspection support information 56. Further, the second display control unit 46A includes the three-dimensional image 52 in the third image area 83 based on the three-dimensional image 52 included in the inspection support information 56.
- the third image area 83 includes the three-dimensional image 52 rendered as a two-dimensional image.
- the size of the three-dimensional image 52 is changed by the inspector 6 giving an instruction to change the size of the three-dimensional image 52 to the reception device 14 (see FIG. 9). Further, for example, when the inspector 6 gives an instruction to the reception device 14 to rotate the three-dimensional image 52, the three-dimensional image 52 is rotated.
- the plurality of two-dimensional images 50 and the three-dimensional image The image 52 becomes available for comparison.
- FIG. 14 shows an example in which the first image area 81 and the third image area 83 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the second image 62
- the first image area 81 and the third image area 83 are The area 81 and the third image area 83 may be displayed on the screen 16A in a state where they are lined up in the vertical direction of the second image 62, or the first image area 81 may be incorporated into a part of the third image area 83.
- the first image area 81 and the third image area 83 may be displayed on the screen 16A in the same state.
- the receiving device 14 receives a selection instruction, which is an instruction to select, the receiving device 14 outputs a selection instruction signal indicating the selection instruction to the processor 20.
- the second image selection unit 46B selects the attention corresponding to the selection instruction from the plurality of two-dimensional images 50 included in the inspection support information 56, according to the selection instruction indicated by the selection instruction signal. Two-dimensional image 50A is selected.
- the second pixel extraction unit 46C extracts a portion of interest 54A associated with the two-dimensional image of interest 50A from the three-dimensional image 52 included in the inspection support information 56.
- the second image generation unit 46D includes a predetermined number of two-dimensional images 50 out of the plurality of two-dimensional images 50 included in the inspection support information 56, and the second image generation unit 46D generates a second image in which the two-dimensional image of interest 50A is surrounded by a frame 90. One image area 81 is generated. Further, the second image generation unit 46D generates a third image region 83 including the attention portion 54A of the three-dimensional image 52 based on the attention portion 54A extracted by the second pixel extraction unit 46C.
- the second image generation unit 46D generates the second image 62 by combining the generated first image area 81 and third image area 83.
- the second display control unit 46A outputs second image data representing the second image 62 generated by the second image generation unit 46D to the display 16.
- the second image 62 is displayed on the screen 16A of the display 16.
- a predetermined number of two-dimensional images 50 out of the plurality of two-dimensional images 50 are displayed on the screen 16A while being included in the first image area 81, and the two-dimensional image of interest 50A is surrounded by a frame 90. It is displayed on the screen 16A in a state where the image is displayed.
- the portion of interest 54A of the three-dimensional image 52 is displayed in an enlarged state on the screen 16A.
- the portion of interest 54A of the three-dimensional image 52 becomes visually identifiable. That is, by displaying the focused portion 54A of the three-dimensional image 52 on the screen 16A in an enlarged state, the focused portion 54A is different from the remaining portion 54 of the plurality of portions 54 forming the three-dimensional image 52. becomes distinguishable. As a result, the portion of interest 54A in the three-dimensional image 52 becomes visually identifiable.
- the two-dimensional image 50A of interest can be distinguished from the remaining two-dimensional images 50 among the plurality of two-dimensional images 50. It becomes a state. As a result, the correspondence between the two-dimensional image of interest 50A and the portion of interest 54A of the three-dimensional image 52 becomes visually identifiable.
- a portion of interest 54A of the three-dimensional image 52 is displayed in an enlarged state on the screen 16A.
- the entire three-dimensional image 52 is displayed on the screen 16A in a size that fits within the third image area 83, and the focused portion 54A of the three-dimensional image 52 is distinguishable from the remaining portion 54 due to other aspects.
- the status may be displayed on the screen 16A.
- the portion of interest 54A may be expressed in a different color from the remaining portion 54, the portion of interest 54A may have a pattern, the portion of interest 54A may be surrounded by a frame, or the outline of the portion of interest 54A may be The formed pixels may be displayed on the screen 16A in a manner such that the brightness is higher than that of surrounding pixels. Even in such an example, the portion of interest 54A in the three-dimensional image 52 can be visually identified.
- FIG. 18 shows a state in which the third image 63 is displayed on the screen 16A.
- the third image 63 includes a first image area 81 and a fourth image area 84.
- the first image area 81 and the fourth image area 84 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the third image 63.
- the first image area 81 is similar to the first image area 81 of the first image 61 (see FIG. 10).
- the fourth image area 84 includes the three-dimensional image 52 and a plurality of position identification images 92.
- Each position specifying image 92 is an image for specifying a plurality of imaging positions where imaging was performed to obtain a plurality of two-dimensional images 50, and indicates an imaging position corresponding to each two-dimensional image 50.
- the third display control unit 48A includes a plurality of two-dimensional images 50 in the first image area 81 based on the plurality of two-dimensional images 50 included in the inspection support information 56. Further, the third display control unit 48A includes the three-dimensional image 52 in the fourth image area 84 based on the three-dimensional image 52 included in the inspection support information 56.
- the fourth image area 84 includes the three-dimensional image 52 rendered into a two-dimensional image.
- the size of the three-dimensional image 52 is changed by the inspector 6 giving an instruction to change the size of the three-dimensional image 52 to the reception device 14 (see FIG. 9). Further, for example, when the inspector 6 gives an instruction to the reception device 14 to rotate the three-dimensional image 52, the three-dimensional image 52 is rotated.
- the third display control unit 48A includes a plurality of position specifying images 92 in the fourth image area 84 based on each imaging position included in the inspection support information 56.
- each position specifying image 92 is represented in a plate shape.
- the plurality of position specifying images 92 are included in the fourth image area 84 in a state that can be compared with the three-dimensional image 52.
- the plurality of position specifying images 92 are arranged around the three-dimensional image 52 so as to be included in the fourth image area 84 while facing the three-dimensional image 52 . That is, the fourth image area 84 includes an image showing a state in which the plurality of position specifying images 92 and the three-dimensional image 52 face each other.
- a plurality of two-dimensional images 50 and three-dimensional images 52 can be compared, and a plurality of two-dimensional images 50 and three-dimensional images 52 can be compared.
- the dimensional image 50 and the plurality of position specifying images 92 become comparable.
- FIG. 18 shows an example in which the first image area 81 and the fourth image area 84 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the third image 63
- the first image area 81 and the fourth image area 84 are The area 81 and the fourth image area 84 may be displayed on the screen 16A in a state where they are lined up in the vertical direction of the third image 63, or the first image area 81 may be incorporated into a part of the fourth image area 84.
- the first image area 81 and the fourth image area 84 may be displayed on the screen 16A in the same state.
- the first image area 81 is an example of a “first area” and a “third area” according to the technology of the present disclosure.
- the fourth image area 84 is an example of a "second area” and a “fourth area” according to the technology of the present disclosure.
- the position specifying image 92 is an example of a “position specifying image” according to the technology of the present disclosure.
- one of the position specifying images 92 included in the fourth image area 84 is selected.
- the receiving device 14 receives a selection instruction, which is an instruction to select, the receiving device 14 outputs a selection instruction signal indicating the selection instruction to the processor 20.
- the selected position specifying image 92 from among the plurality of position specifying images 92 will be referred to as "attention position specifying image 92A.”
- the third image selection unit 48B selects the target position specifying image 92A from the plurality of imaging positions included in the inspection support information 56 according to the selection instruction indicated by the selection instruction signal.
- An imaging position (hereinafter referred to as a "target imaging position") is selected.
- the third image selection unit 48B selects the two-dimensional image of interest 50A corresponding to the imaging position of interest from the plurality of two-dimensional images 50 included in the inspection support information 56.
- the two-dimensional image of interest 50A is a two-dimensional image 50 obtained by imaging from the imaging position of interest.
- the attention position specifying image 92A is an example of the "attention position specifying image” according to the technology of the present disclosure.
- the imaging position of interest is an example of the "imaging position of interest” according to the technology of the present disclosure.
- the third image generation unit 48C generates a fourth image area 84 including the three-dimensional image 52 based on the three-dimensional image 52 included in the inspection support information 56. Further, the third image generation unit 48C includes a plurality of position specifying images 92 in the fourth image area 84 based on the imaging position and imaging posture included in the inspection support information 56. The plurality of position specifying images 92 are arranged around the three-dimensional image 52 and are included in the fourth image area 84 in a state facing the three-dimensional image 52 . Each position specifying image 92 is arranged at a position corresponding to each imaging position and in an orientation corresponding to each imaging orientation.
- the third image generation unit 48C includes a focused position specifying image 92A corresponding to the focused imaging position among the plurality of position specifying images 92 in the fourth image area 84.
- the target position specifying image 92A is included in the fourth image area 84 in a state in which it is distinguishable from the remaining position specifying images 92 among the plurality of position specifying images 92.
- the attention position specifying image 92A is expressed in a different color from the remaining position specifying images 92. .
- the attention position specifying image 92A may be surrounded by a frame, or a pattern may be added to the attention position specifying image 92A. Furthermore, the pixels forming the outline of the target position specifying image 92A may have higher luminance than the surrounding pixels.
- the third image generation unit 48C includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the two-dimensional image of interest 50A is surrounded by a frame 90. A first image area 81 is generated.
- the third image generation unit 48C generates the third image 63 by combining the generated first image area 81 and fourth image area 84.
- the third display control unit 48A outputs third image data representing the third image 63 generated by the third image generation unit 48C to the display 16.
- the third image 63 is displayed on the screen 16A of the display 16.
- a predetermined number of two-dimensional images 50 out of the plurality of two-dimensional images 50 are displayed on the screen 16A while being included in the first image area 81, and the two-dimensional image of interest 50A is surrounded by a frame 90. It is displayed on the screen 16A in a state where the image is displayed. Additionally, a three-dimensional image 52 is displayed on the screen 16A.
- the plurality of position specifying images 92 are displayed on the screen 16A in a state facing the three-dimensional image 52 by being arranged around the three-dimensional image 52, and the position specifying image of interest 92A is the position specifying image 92 of the plurality of position specifying images 92. It is displayed on the screen 16A in a state that is distinguishable from the remaining position specifying images 92.
- the attention position specifying image 92A By displaying the attention position specifying image 92A on the screen 16A in a state in which it is distinguishable from the remaining position specifying images 92, the attention portion 54A corresponding to the attention position specifying image 92A in the three-dimensional image 52 is visually displayed. become identifiable.
- the imaging position and imaging orientation are specified by the attention position identification image 92A, and the correspondence between the identified imaging position and imaging orientation and the attention area 54A of the three-dimensional image 52 becomes visually identifiable. .
- the portion of interest 54A in the three-dimensional image 52 becomes visually identifiable.
- the two-dimensional image 50A of interest can be distinguished from the remaining two-dimensional images 50 among the plurality of two-dimensional images 50. It becomes a state. As a result, the correspondence between the two-dimensional image of interest 50A and the portion of interest 54A of the three-dimensional image 52 becomes visually identifiable.
- the entire three-dimensional image 52 is displayed on the screen 16A in a size that fits within the fourth image area 84.
- the portion of interest 54A of the three-dimensional image 52 may be displayed in an enlarged state on the screen 16A. Even in such an example, the portion of interest 54A in the three-dimensional image 52 can be visually identified.
- step ST10 the acquisition unit 32 (see FIG. 6) acquires the two-dimensional image 50 based on each image data received by the inspection support device 10. Furthermore, the acquisition unit 32 acquires an imaging position corresponding to each two-dimensional image 50 based on each position data received by the inspection support device 10. Further, the acquisition unit 32 acquires an imaging posture corresponding to each two-dimensional image 50 based on each posture data received by the inspection support device 10. After the process of step ST10 is executed, the inspection support information generation process moves to step ST12.
- step ST12 the three-dimensional image generation unit 34 (see FIG. 6) generates a three-dimensional image 52 showing the object 4 based on the plurality of two-dimensional images 50 acquired in step ST10.
- the inspection support information generation process moves to step ST14.
- step ST14 the inspection support information generation unit 36 (see FIG. 7) generates each two-dimensional image 50 acquired in step ST10, the imaging position corresponding to each two-dimensional image 50, and the image capturing position corresponding to each two-dimensional image 50.
- Inspection support information 56 which is information that associates the imaging posture and the portion 54 corresponding to each two-dimensional image 50, is generated.
- step ST20 the operation mode setting unit 42 (see FIG. 9) determines whether a mode setting instruction signal has been input to the processor 20. In step ST20, if the mode setting instruction signal is input to the processor 20, the determination is affirmative and the inspection support process moves to step ST22. In step ST20, if the mode setting instruction signal is not input to the processor 20, the determination is negative and the mode setting process moves to step ST32.
- step ST22 the operation mode setting unit 42 determines whether the mode setting instruction signal input to the processor 20 in step ST20 is the first mode setting signal. In step ST22, if the mode setting instruction signal is the first mode setting signal, the determination is affirmative and the inspection support process moves to step ST24. In step ST22, if the mode setting instruction signal is not the first mode setting signal, the determination is negative and the mode setting process moves to step ST26.
- step ST24 the operation mode setting unit 42 sets the first mode as the operation mode of the inspection support device 10. As a result, the first mode process is executed. After the process of step ST24 is executed, the mode setting process moves to step ST32.
- step ST26 the operation mode setting unit 42 determines whether the mode setting instruction signal input to the processor 20 in step ST20 is a second mode setting signal. In step ST26, if the mode setting instruction signal is the second mode setting signal, the determination is affirmative and the inspection support process moves to step ST28. In step ST26, if the mode setting instruction signal is not the second mode setting signal, the determination is negative and the mode setting process moves to step ST30.
- step ST28 the operation mode setting unit 42 sets the second mode as the operation mode of the inspection support device 10. As a result, the second mode processing is executed. After the process of step ST28 is executed, the mode setting process moves to step ST32.
- step ST30 the operation mode setting unit 42 sets the third mode as the operation mode of the inspection support device 10. As a result, the third mode process is executed. After the process of step ST30 is executed, the mode setting process moves to step ST32.
- step ST32 the processor 20 determines whether a condition for terminating the mode setting process (hereinafter referred to as "mode setting process terminating condition") is satisfied.
- An example of the mode setting processing termination condition includes a condition that a termination instruction signal from the reception device 14 is input to the processor 20 as a result of the reception device 14 accepting a termination instruction from the inspector 6.
- step ST32 if the mode setting process end condition is not satisfied, the determination is negative and the mode setting process moves to step ST20.
- step ST32 if the mode setting process end condition is satisfied, the determination is affirmative and the inspection support process including the mode setting process ends.
- step ST40 the first display control section 44A (see FIG. 10) displays the first image 61 on the screen 16A.
- the first mode process moves to step ST42.
- step ST42 the first image selection unit 44B (see FIG. 11) sends a selection instruction signal to the processor 20, which is an instruction to select one of the two-dimensional images 50 from the plurality of two-dimensional images 50. Determine whether the input has been made. In step ST42, if a selection instruction signal indicating a selection instruction is input to the processor 20, the determination is affirmative and the first mode processing moves to step ST44. In step ST42, if the selection instruction signal indicating the selection instruction is not input to the processor 20, the determination is negative and the first mode processing moves to step ST52.
- step ST44 the first image selection unit 44B selects the two-dimensional image of interest 50A corresponding to the selection instruction indicated by the selection instruction signal from the plurality of two-dimensional images 50 included in the inspection support information 56. After the process of step ST44 is executed, the first mode process moves to step ST46.
- step ST46 the first pixel extraction unit 44C (see FIG. 12) acquires the imaging position and imaging posture corresponding to the two-dimensional image of interest 50A selected in step ST44 from the inspection support information 56. Furthermore, the first pixel extraction unit 44C derives a viewpoint corresponding to the two-dimensional image of interest 50A based on the acquired imaging position and imaging orientation. The first pixel extraction unit 44C then extracts pixels for including the three-dimensional image 52 in the second image area 82 from the three-dimensional image 52 included in the inspection support information 56 at the derived viewpoint. After the process of step ST46 is executed, the first mode process moves to step ST48.
- the first image generation unit 44D (see FIG. 12) includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the two-dimensional image of interest 50A is A first image area 81 surrounded by a frame 90 is generated.
- the first image generation unit 44D also includes a three-dimensional image 52 having a size that fits entirely within the second image area 82 from a viewpoint corresponding to the two-dimensional image of interest 50A, based on the pixels extracted in step ST46.
- a second image area 82 is generated.
- the first image generation unit 44D (see FIG. 13) generates the first image 61 by combining the generated first image area 81 and second image area 82.
- the first mode process moves to step ST50.
- step ST50 the first display control unit 44A (see FIG. 13) outputs first image data representing the first image 61 generated in step ST48 to the display 16. As a result, the first image 61 is displayed on the screen 16A of the display 16. After the process of step ST50 is executed, the first mode process moves to step ST52.
- step ST52 the processor 20 determines whether a condition for terminating the first mode processing (hereinafter referred to as "first mode processing terminating condition") is satisfied.
- first mode processing termination condition is a condition that a termination instruction from the inspector 6 is received by the reception device 14 and a termination instruction signal from the reception device 14 is input to the processor 20; Examples of the condition include that a mode setting instruction signal indicating an instruction to set an operation mode different from the current mode is input to the processor 20.
- step ST52 if the first mode processing end condition is not satisfied, the determination is negative and the first mode processing moves to step ST42.
- step ST52 if the first mode processing end condition is satisfied, the determination is affirmative and the first mode processing ends.
- step ST60 the second display control section 46A (see FIG. 14) displays the second image 62 on the screen 16A. After the process of step ST60 is executed, the second mode process moves to step ST62.
- step ST62 the second image selection unit 46B (see FIG. 15) determines whether a selection instruction signal, which is an instruction to select one of the two-dimensional images 50 from the plurality of two-dimensional images 50, has been input to the processor 20. Determine whether In step ST62, if a selection instruction signal indicating a selection instruction is input to the processor 20, the determination is affirmative and the second mode processing moves to step ST64. In step ST62, if the selection instruction signal indicating the selection instruction is not input to the processor 20, the determination is negative and the second mode processing moves to step ST72.
- a selection instruction signal which is an instruction to select one of the two-dimensional images 50 from the plurality of two-dimensional images 50
- step ST64 the second image selection unit 46B selects the two-dimensional image of interest 50A corresponding to the selection instruction indicated by the selection instruction signal from the plurality of two-dimensional images 50 included in the inspection support information 56. After the process of step ST64 is executed, the second mode process moves to step ST66.
- step ST66 the second pixel extraction unit 46C (see FIG. 16) extracts the attention portion 54A associated with the attention two-dimensional image 50A from the three-dimensional image 52 included in the inspection support information 56.
- step ST68 the second mode process moves to step ST68.
- the second image generation unit 46D (see FIG. 16) includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the two-dimensional image of interest 50A is A first image area 81 surrounded by a frame 90 is generated. Further, the second image generation unit 46D generates a third image region 83 including the attention portion 54A of the three-dimensional image 52 based on the attention portion 54A extracted in step ST66. Then, the second image generation unit 46D (see FIG. 17) generates the second image 62 by combining the generated first image area 81 and third image area 83. After the process of step ST68 is executed, the second mode process moves to step ST70.
- step ST70 the second display control unit 46A (see FIG. 17) outputs second image data representing the second image 62 generated in step ST68 to the display 16. As a result, the second image 62 is displayed on the screen 16A of the display 16. After the process of step ST70 is executed, the second mode process moves to step ST72.
- step ST72 the processor 20 determines whether a condition for terminating the second mode processing (hereinafter referred to as "second mode processing terminating condition") is satisfied.
- An example of the second mode processing termination condition is a condition that a termination instruction from the inspector 6 is received by the reception device 14 and a termination instruction signal from the reception device 14 is input to the processor 20; Examples of the condition include that a mode setting instruction signal indicating an instruction to set an operation mode different from the current mode is input to the processor 20.
- step ST72 if the second mode processing end condition is not satisfied, the determination is negative and the second mode processing moves to step ST62.
- step ST72 if the second mode processing end condition is satisfied, the determination is affirmative and the second mode processing ends.
- step ST80 the third display control unit 48A (see FIG. 18) displays the third image 63 on the screen 16A.
- the third mode process moves to step ST82.
- step ST82 the third image selection unit 48B (see FIG. 19) receives a selection instruction signal indicating a selection instruction, which is an instruction to select the target position identification image 92A from among the plurality of position identification images 92, is input to the processor 20. Determine whether or not. In step ST82, if a selection instruction signal indicating a selection instruction is input to the processor 20, the determination is affirmative and the third mode processing moves to step ST84. In step ST82, if the selection instruction signal indicating the selection instruction is not input to the processor 20, the determination is negative and the third mode processing moves to step ST90.
- step ST84 the third image selection unit 48B selects the imaging position of interest corresponding to the position of interest identification image 92A from the plurality of imaging positions included in the inspection support information 56, according to the selection instruction indicated by the selection instruction signal.
- the third image selection unit 48B selects the two-dimensional image of interest 50A corresponding to the imaging position of interest from the plurality of two-dimensional images 50 included in the inspection support information 56.
- the third mode process moves to step ST86.
- step ST86 the third image generation unit 48C (see FIG. 20) generates a fourth image area 84 including the three-dimensional image 52 based on the three-dimensional image 52 included in the inspection support information 56. Further, the third image generation unit 48C includes a plurality of position specifying images 92 in the fourth image area 84 based on the imaging position and imaging posture included in the inspection support information 56. Furthermore, the third image generation unit 48C includes the attention position specifying image 92A corresponding to the attention imaging position selected in step ST84 in the fourth image area 84. Then, the third image generation unit 48C (see FIG. 21) generates the third image 63 by combining the generated first image area 81 and fourth image area 84. After the process of step ST86 is executed, the third mode process moves to step ST88.
- step ST88 the third display control unit 48A (see FIG. 21) outputs third image data representing the third image 63 generated in step ST86 to the display 16. As a result, the third image 63 is displayed on the screen 16A of the display 16. After the process of step ST88 is executed, the third mode process moves to step ST90.
- step ST90 the processor 20 determines whether a condition for terminating the third mode processing (hereinafter referred to as "third mode processing terminating condition") is satisfied.
- An example of the third mode processing termination condition is a condition that a termination instruction from the inspector 6 is received by the reception device 14 and a termination instruction signal from the reception device 14 is input to the processor 20; Examples of the condition include that a mode setting instruction signal indicating an instruction to set an operation mode different from the current mode is input to the processor 20.
- step ST90 if the third mode processing end condition is not satisfied, the determination is negative and the third mode processing moves to step ST82.
- step ST90 if the third mode processing end condition is satisfied, the determination is affirmative and the third mode processing ends.
- the inspection support method described as the operation of the above-mentioned inspection support device 10 is an example of an "image processing method" according to the technology of the present disclosure.
- the processor 20 is configured to control the plurality of two-dimensional images 50 used to generate the three-dimensional image 52 showing the object 4 in real space. , the plurality of two-dimensional images 50 and the three-dimensional image 52, which are associated with the plurality of portions 54 of the three-dimensional image 52, are displayed on the screen 16A in a comparable state (FIGS. 10, 14, and 18). reference). Further, the processor 20 selects the two-dimensional image of interest 50A from the plurality of two-dimensional images 50 according to the given selection instruction (see FIGS. 11, 15, and 19).
- the processor 20 displays the focused portion 54A corresponding to the focused two-dimensional image 50A among the plurality of portions 54 on the screen 16A in a visually identifiable state (see FIGS. 13, 17, and 21). . Therefore, it is possible to visually grasp the correspondence between each two-dimensional image 50 and the area corresponding to each two-dimensional image 50 of the object 4.
- the state in which the plurality of two-dimensional images 50 and the three-dimensional image 52 can be compared refers to the first image area 81 including the plurality of two-dimensional images 50 and the image area including the three-dimensional image 52 (i.e., the second image area 82, third image area 83, or fourth image area 84) are lined up (see FIGS. 10, 14, and 18). Therefore, the plurality of two-dimensional images 50 and three-dimensional images 52 can be visually compared.
- the state in which the portion of interest 54A can be visually specified includes a state in which the portion of interest 54A can be distinguished from the remaining portions 54 of the plurality of portions 54 (see FIGS. 17 and 21). Therefore, for example, the visibility of the attention portion 54A can be improved compared to the case where the attention portion 54A is not distinguished from the remaining portion 54.
- the state in which the attention portion 54A can be visually identified includes a state in which the attention 2D image 50A can be distinguished from the remaining 2D images 50 among the plurality of 2D images 50 (FIG. 13, 17 and FIG. 21). Therefore, for example, the visibility of the portion of interest 54A can be improved compared to the case where the two-dimensional image of interest 50A is not distinguished from the remaining two-dimensional images 50. Further, when a plurality of two-dimensional images 50 and three-dimensional images 52 are displayed on the screen 16A in a state where they can be compared, and a portion of interest 54A is displayed on the screen 16A in a state where it is distinguishable from the remaining portion 54 (FIG. 17 and FIG. 21), it is possible to visually identify the correspondence between the two-dimensional image of interest 50A and the portion of interest 54A.
- the processor 20 displays on the screen 16A a plurality of position specifying images 92 that can specify a plurality of imaging positions where imaging was performed to obtain a plurality of two-dimensional images 50 in a state that can be compared with the three-dimensional image 52. (See Figure 18). Further, in accordance with the selection instruction, the processor 20 selects the imaging position corresponding to the target position specifying image 92A selected from the plurality of position specifying images 92 as the target image capturing position from among the plurality of image capturing positions (see FIG. 19). Then, the processor 20 selects the two-dimensional image 50 obtained by imaging from the imaging position of interest from the plurality of two-dimensional images 50 as the two-dimensional image of interest 50A (see FIG. 19). Therefore, by selecting the position specifying image 92A of interest from the plurality of position specifying images 92, the two-dimensional image 50A of interest can be selected from the plurality of two-dimensional images 50.
- the state in which the plurality of position specifying images 92 and the three-dimensional image 52 can be compared includes a state in which the plurality of position specifying images 92 and the three-dimensional image 52 are faced to each other (see FIG. 19). Therefore, based on the state in which the plurality of position specifying images 92 and the three-dimensional image 52 face each other, a position specifying image of interest 92A corresponding to the portion of interest 54A of the three-dimensional image 52 is selected from the plurality of position specifying images 92. be able to.
- the state in which the plurality of two-dimensional images 50 and the three-dimensional images 52 can be compared means that the first image area 81 including the plurality of two-dimensional images 50 and the fourth image area 84 (that is, the plurality of position-specific images 92 and the three-dimensional image 52) are lined up (see FIGS. 18 and 19). Therefore, the plurality of two-dimensional images 50, the plurality of portions 54 of the three-dimensional image 52, and the plurality of position identification images 92 can be visually compared.
- the state in which the portion of interest 54A can be visually identified includes a state in which the attention position specifying image 92A is distinguishable from the remaining position specifying images 92 among the plurality of position specifying images 92. Therefore, for example, the visibility of the attention portion 54A can be improved compared to the case where the attention position specifying image 92A is not distinguished from the remaining position specifying images 92.
- the inspection support device 10 also has an operation mode (for example, a first mode and a second mode) in which a plurality of two-dimensional images 50 and a three-dimensional image 52 are displayed on the screen 16A in a comparable state. , has an operation mode (that is, a third mode) in which a plurality of position specifying images 92 are displayed on the screen 16A in a state where they can be compared with the three-dimensional image 52.
- the processor 20 sets the operating mode according to the given setting instructions.
- the screen 16A may be in a state where a plurality of two-dimensional images 50 and a three-dimensional image 52 can be compared, and a state where a plurality of position specifying images 92 can be compared with a three-dimensional image 52. can be selectively switched to.
- the three-dimensional image 52 is displayed on the screen 16A at a viewpoint corresponding to the two-dimensional image of interest 50A (see FIG. 13). Therefore, based on the viewpoint corresponding to the two-dimensional image of interest 50A, it is possible to visually specify the portion of interest 54A among the plurality of portions 54 that corresponds to the two-dimensional image of interest 50A.
- the inspection support device 10 according to the first embodiment has a first mode, a second mode, and a third mode, and any one of the first mode, second mode, and third mode is the operating mode. may be omitted. Further, the inspection support device 10 according to the first embodiment may have only one operation mode among the first mode, the second mode, and the third mode.
- the configuration of the inspection support device 10 is changed from the first embodiment as follows.
- the processor 20 operates as a fourth display control section 94A.
- the fourth display control unit 94A displays the fourth image 64 on the screen 16A.
- the fourth image 64 includes a first image area 81 and a fifth image area 85.
- the first image area 81 and the fifth image area 85 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the fifth image.
- the first image area 81 is similar to the first image area 81 of the first image 61 (see FIG. 10).
- the fifth image area 85 includes the three-dimensional image 52.
- the fourth display control unit 94A includes a plurality of two-dimensional images 50 in the first image area 81 based on the plurality of two-dimensional images 50 included in the inspection support information 56. Further, the fourth display control unit 94A includes the three-dimensional image 52 in the fifth image area 85 based on the three-dimensional image 52 included in the inspection support information 56.
- the fifth image area 85 includes the three-dimensional image 52 rendered as a two-dimensional image.
- the size of the three-dimensional image 52 is changed by the inspector 6 giving an instruction to change the size of the three-dimensional image 52 to the reception device 14 (see FIG. 9). Further, for example, when the inspector 6 gives an instruction to the reception device 14 to rotate the three-dimensional image 52, the three-dimensional image 52 is rotated.
- the plurality of two-dimensional images 50 and the three-dimensional image The image 52 becomes available for comparison.
- FIG. 27 shows an example in which the first image area 81 and the fifth image area 85 are displayed on the screen 16A in a state where they are lined up in the left-right direction of the fourth image 64
- the first image area 81 and the fifth image area 85 are The area 81 and the fifth image area 85 may be displayed on the screen 16A in a state where they are lined up in the vertical direction of the fourth image 64, or the first image area 81 may be incorporated into a part of the fifth image area 85.
- the first image area 81 and the fifth image area 85 may be displayed on the screen 16A in the same state.
- the first image area 81 is an example of a "first area” according to the technology of the present disclosure.
- the fifth image area 85 is an example of a "second area” according to the technology of the present disclosure.
- this is an instruction to select any part 54 of the three-dimensional image 52 included in the fifth image area 85 while the fourth image 64 is displayed on the screen 16A.
- the receiving device 14 When the selection instruction is accepted by the receiving device 14, the receiving device 14 outputs a selection instruction signal indicating the selection instruction to the processor 20.
- the processor 20 operates as a fourth image selection unit 94B.
- the fourth image selection unit 94B selects the portion 54 ( That is, the portion of interest 54A) is selected. Further, the fourth image selection unit 94B selects the two-dimensional image 50 (that is, the two-dimensional image of interest 50A) corresponding to the portion of interest 54A from the plurality of two-dimensional images 50 included in the inspection support information 56.
- the processor 20 operates as a fourth pixel extraction section 94C and a fourth image generation section 94D.
- the fourth pixel extraction unit 94C extracts a portion of interest 54A corresponding to the two-dimensional image of interest 50A from the three-dimensional image 52 included in the inspection support information 56.
- the fourth image generation unit 94D includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the fourth image generation unit 94D generates a fourth image in which the two-dimensional image of interest 50A is surrounded by a frame 90. One image area 81 is generated. Further, the fourth image generation unit 94D generates a fifth image area 85 including the three-dimensional image 52 based on the three-dimensional image 52 included in the inspection support information 56. Furthermore, the fourth image generation unit 94D includes the attention portion 54A extracted by the fourth pixel extraction unit 94C in the fifth image area 85 in a state that is distinguishable from the remaining portion 54. For example, the fourth image generation unit 94D includes the portion of interest 54A in the fifth image region 85 in a manner that the portion of interest 54A is represented in a different color from the remaining portion 54.
- the fourth image generation unit 94D generates the fourth image 64 by combining the generated first image area 81 and fifth image area 85.
- the fourth display control unit 94A outputs fourth image data representing the fourth image 64 generated by the fourth image generation unit 94D to the display 16.
- the fourth image 64 is displayed on the screen 16A of the display 16.
- a predetermined number of two-dimensional images 50 out of the plurality of two-dimensional images 50 are displayed on the screen 16A while being included in the first image area 81, and the two-dimensional image of interest 50A is surrounded by a frame 90. It is displayed on the screen 16A in a state where the image is displayed.
- the two-dimensional image 50A of interest is distinguishable from the remaining two-dimensional images 50 among the plurality of two-dimensional images 50. become.
- the attention portion 54A included in the three-dimensional image 52 is displayed on the screen 16A in a state that is distinguishable from the remaining portion 54.
- the portion of interest 54A in the three-dimensional image 52 becomes visually identifiable.
- the portion of interest 54A is displayed in a different color from the remaining portion 54.
- the portion of interest 54A may be displayed on the screen 16A in a manner distinguishable from the remaining portion 54 in other manners.
- the portion of interest 54A may be displayed on the screen 16A in a manner such that the portion of interest 54A is surrounded by a frame, a pattern is attached to the portion of interest 54A, or the brightness of the portion of interest 54A is higher than that of the remaining portion 54. Good too. Even in such an example, the portion of interest 54A becomes distinguishable from the remaining portion 54.
- FIG. 31 shows an example of the flow of inspection support processing according to the second embodiment.
- step ST100 the fourth display control unit 94A (see FIG. 27) displays the fourth image 64 on the screen 16A.
- the inspection support process moves to step ST102.
- step ST102 the fourth image selection unit 94B (see FIG. 28) determines whether a selection instruction signal indicating a selection instruction, which is an instruction to select any part 54 of the three-dimensional image 52, has been input to the processor 20. Determine whether In step ST102, if a selection instruction signal indicating a selection instruction is input to the processor 20, the determination is affirmative and the inspection support process moves to step ST104. In step ST102, if the selection instruction signal indicating the selection instruction is not input to the processor 20, the determination is negative and the inspection support process moves to step ST112.
- step ST104 the fourth image selection unit 94B selects the portion of interest 54A corresponding to the selection instruction indicated by the selection instruction signal from the plurality of portions 54 included in the inspection support information 56. Further, the fourth image selection unit 94B selects the two-dimensional image of interest 50A corresponding to the portion of interest 54A from the plurality of two-dimensional images 50 included in the inspection support information 56. After the process of step ST104 is executed, the inspection support process moves to step ST106.
- step ST106 the fourth pixel extraction unit 94C (see FIG. 29) extracts the portion of interest 54A corresponding to the two-dimensional image of interest 50A from the three-dimensional image 52 included in the inspection support information 56.
- the inspection support process moves to step ST108.
- the fourth image generation unit 94D (see FIG. 30) includes a predetermined number of two-dimensional images 50 among the plurality of two-dimensional images 50 included in the inspection support information 56, and the two-dimensional image of interest 50A is A first image area 81 surrounded by a frame 90 is generated. Further, the fourth image generation unit 94D generates a fifth image area 85 including the three-dimensional image 52 based on the three-dimensional image 52 included in the inspection support information 56. Further, the fourth image generation unit 94D includes the portion of interest 54A extracted in step ST106 in the fifth image region 85 in a state that is distinguishable from the remaining portion 54. The fourth image generation unit 94D then generates the fourth image 64 by combining the generated first image area 81 and fifth image area 85. After the process of step ST108 is executed, the inspection support process moves to step ST110.
- step ST110 the fourth display control unit 94A (see FIG. 30) outputs fourth image data representing the fourth image 64 generated in step ST108 to the display 16. As a result, the fourth image 64 is displayed on the screen 16A of the display 16. After the process of step ST110 is executed, the inspection support process moves to step ST112.
- step ST112 the processor 20 determines whether a condition for terminating the inspection support process (hereinafter referred to as "termination condition") is satisfied.
- termination condition a condition for terminating the inspection support process
- An example of the termination condition is that the reception device 14 receives a termination instruction from the inspector 6 and a termination instruction signal from the reception device 14 is input to the processor 20.
- the determination is negative and the inspection support process moves to step ST102.
- the termination condition if the termination condition is satisfied, the determination is affirmative and the inspection support process is terminated.
- the processor 20 is configured to control the plurality of two-dimensional images 50 used to generate the three-dimensional image 52 showing the object 4 in real space. , a plurality of two-dimensional images 50 and a three-dimensional image 52, which are associated with a plurality of portions 54 of the three-dimensional image 52, are displayed on the screen 16A in a comparable state (see FIG. 27). Furthermore, the processor 20 selects a portion of interest 54A from the plurality of portions 54, and selects a two-dimensional image of interest 50A corresponding to the portion of interest 54A from among the plurality of two-dimensional images 50, in accordance with the given selection instruction (Fig. 28).
- the processor 20 displays the two-dimensional image of interest 50A on the screen 16A in a state in which it is distinguishable from the remaining two-dimensional images 50 among the plurality of two-dimensional images 50. Therefore, it is possible to visually grasp the correspondence between each two-dimensional image 50 and the area corresponding to each two-dimensional image 50 of the object 4.
- the processor 20 displays the portion of interest 54A on the screen 16A in a visually identifiable state (see FIG. 30). Therefore, the correspondence between the two-dimensional image of interest 50A and the portion of interest 54A can be visually identified.
- the state in which the portion of interest 54A can be visually specified includes a state in which the portion of interest 54A can be distinguished from the remaining portions 54 of the plurality of portions 54 (see FIG. 30). Therefore, for example, the visibility of the attention portion 54A can be improved compared to the case where the attention portion 54A is not distinguished from the remaining portion 54.
- operation mode of the inspection support device 10 according to the second embodiment may be added as a fourth mode to the operation mode of the inspection support device 10 according to the first embodiment.
- processor 20 is illustrated, but instead of the processor 20 or together with the processor 20, at least one other CPU, at least one GPU, and/or at least one TPU may be used. It's okay.
- the inspection support information generation program 30 and the inspection support program 40 are stored in the storage 22, but the technology of the present disclosure is not limited to this.
- the inspection support information generation program 30 and/or the inspection support program 40 may be stored in a portable non-transitory computer-readable storage medium (hereinafter simply referred to as a "non-transitory storage medium") such as an SSD or a USB memory. It may be stored.
- the inspection support information generation program 30 and/or the inspection support program 40 stored in the non-temporary storage medium may be installed in the computer 12 of the inspection support device 10.
- the inspection support information generation program 30 and/or the inspection support program 40 may be stored in a storage device such as another computer or server device connected to the inspection support device 10 via a network, and the inspection support information generation program 30 and/or the inspection support program 40 may be requested by the inspection support device 10.
- the inspection support information generation program 30 and/or the inspection support program 40 may be downloaded and installed on the computer 12 in accordance with the above.
- the inspection support information generation program 30 and/or the inspection support program 40 it is not necessary to store all of the inspection support information generation program 30 and/or the inspection support program 40 in a storage device such as another computer or server device connected to the inspection support device 10, or in the storage 22; Part of the support information generation program 30 and/or the inspection support program 40 may be stored.
- the inspection support device 10 has a built-in computer 12, the technology of the present disclosure is not limited to this, and for example, the computer 12 may be provided outside the inspection support device 10.
- the computer 12 including the processor 20, the storage 22, and the RAM 24 is illustrated, but the technology of the present disclosure is not limited to this, and instead of the computer 12, an ASIC, an FPGA, and/or A device including a PLD may also be applied. Further, instead of the computer 12, a combination of hardware configuration and software configuration may be used.
- processors can be used as hardware resources for executing the various processes described in the above embodiments.
- the processor include a CPU, which is a general-purpose processor that functions as a hardware resource that executes various processes by executing software, that is, a program.
- the processor include a dedicated electronic circuit such as an FPGA, a PLD, or an ASIC, which is a processor having a circuit configuration specifically designed to execute a specific process.
- Each processor has a built-in memory or is connected to it, and each processor uses the memory to perform various processes.
- Hardware resources that execute various processes may be configured with one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, or a CPU and FPGA). Furthermore, the hardware resource that executes various processes may be one processor.
- one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes various processes.
- a and/or B has the same meaning as “at least one of A and B.” That is, “A and/or B” means that it may be only A, only B, or a combination of A and B. Furthermore, in this specification, even when three or more items are expressed by connecting them with “and/or”, the same concept as “A and/or B" is applied.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
画像処理装置は、プロセッサを備える。プロセッサは、実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と3次元画像とを対比可能な状態で画面に表示し、与えられた選択指示に従って、複数の2次元画像から注目2次元画像を選択し、複数の部分のうちの注目2次元画像に対応する注目部分を視覚的に特定可能な状態で画面に表示する。
Description
本開示の技術は、画像処理装置、画像処理方法、及びプログラムに関する。
特開2020-005186号公報には、計算機システムによって構成される画像表示システムが開示されている。計算機システムは、撮影の日時、位置、および方向が異なる複数の画像を含む画像群を入力し、画像群の一覧を一覧画面に表示し、ユーザの操作に基づいて画像群から選択された第1画像を個別画面に表示する。また、計算機システムは、第1画像と第1画像に対して空間的に周辺にある候補画像との組における空間的な位置関係の判断、および撮影範囲に関する重複状態の判断に基づいて、第1画像に対する隣接画像を判断し、個別画面で、ユーザの操作に基づいて、第1画像に対する隣接画像を第2画像として選択し、第2画像を新たな第1画像として表示する。
特開2007-093661号公報には、自動車に搭載され、第一の地図と当該第一の地図と表現形態の異なる第二の地図とを同時に表示するナビゲーション装置が開示されている。ナビゲーション装置は、表示装置と、地図表示手段と、現在位置算出手段と、現在位置表示手段と、位置指定受付手段とを備える。地図表示手段は、第一の地図と第二の地図を、表示装置の異なる表示領域に表示する。現在位置算出手段は、現在位置を算出する。現在位置表示手段は、現在位置算出手段が算出した現在位置を表す現在位置マークを、地図表示手段が表示した第一の地図と第二の地図のうちの少なくとも一方の地図上に表示する。位置指定受付手段は、第一の地図が表示されている表示領域上の位置の指定をユーザから受け付ける。地図表示手段は、位置指定手段が指定を受け付けた位置に対応する第一の地図上の地点と同じ地点を表す第二の地図上の位置を識別可能な形態で、当該第二の地図を表示する。
特開2010-200024号公報には、立体画像表示装置が開示されている。立体画像表示装置は、表示手段と、指示入力手段と、位置合わせ手段と、表示制御手段とを備える。表示手段は、複数の視点で撮像された撮像画像を立体表示する前に、撮像画像から生成されたサムネイル画像を一覧で表示する。指示入力手段は、一覧中のサムネイル画像を選択する選択指示が入力される。位置合わせ手段は、選択指示が入力されて撮像画像を立体表示するときに、選択されたサムネイル画像に対応する複数視点の撮像画像を、撮像画像中の特定対象の検出領域にて互いに位置合わせする。表示制御手段は、特定対象の検出領域を示す検出領域情報をサムネイル画像中に付加する。
本開示の技術に係る一つの実施形態は、一例として、各2次元画像と、対象物のうちの各2次元画像に対応する領域との対応関係を視覚的に把握することができる画像処理装置、画像処理方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサは、実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と3次元画像とを対比可能な状態で画面に表示し、与えられた選択指示に従って、複数の2次元画像から注目2次元画像を選択し、複数の部分のうちの注目2次元画像に対応する注目部分を視覚的に特定可能な状態で画面に表示する画像処理装置である。
本開示の技術に係る第2の態様は、第1の態様に係る画像処理装置において、複数の2次元画像と3次元画像とを対比可能な状態とは、複数の2次元画像を含む第1領域と3次元画像を含む第2領域とが並んだ状態である画像処理装置である。
本開示の技術に係る第3の態様は、第1の態様又は第2の態様に係る画像処理装置において、注目部分を視覚的に特定可能な状態とは、注目部分が複数の部分のうちの残りの部分とは区別可能な状態を含む画像処理装置である。
本開示の技術に係る第4の態様は、第1の態様から第3の態様の何れか一つの態様に係る画像処理装置において、注目部分を視覚的に特定可能な状態とは、注目2次元画像が複数の2次元画像のうちの残りの2次元画像とは区別可能な状態を含む画像処理装置である。
本開示の技術に係る第5の態様は、第1の態様から第4の態様の何れか一つの態様に係る画像処理装置において、プロセッサは、複数の2次元画像を得るための撮像が行われた複数の撮像位置を特定可能な複数の位置特定画像を3次元画像と対比可能な状態で画面に表示し、選択指示に従って、複数の位置特定画像から選択された注目位置特定画像に対応する撮像位置を注目撮像位置として複数の撮像位置から選択し、注目撮像位置から撮像が行われることによって得られた2次元画像を注目2次元画像として複数の2次元画像から選択する画像処理装置である。
本開示の技術に係る第6の態様は、第5の態様に係る画像処理装置において、複数の位置特定画像と3次元画像とを対比可能な状態とは、複数の位置特定画像と3次元画像とを対向させた状態を含む画像処理装置である。
本開示の技術に係る第7の態様は、第5の態様又は第6の態様に係る画像処理装置において、複数の2次元画像と3次元画像とを対比可能な状態とは、複数の2次元画像を含む第3領域と、複数の位置特定画像と3次元画像とを対向させた態様を示す画像を含む第4領域とが並んだ状態である画像処理装置である。
本開示の技術に係る第8の態様は、第5の態様から第7の態様の何れか一つの態様に係る画像処理装置において、注目部分を視覚的に特定可能な状態とは、注目位置特定画像が複数の位置特定画像のうちの残りの位置特定画像とは区別可能な状態を含む画像処理装置である。
本開示の技術に係る第9の態様は、第5の態様から第8の態様の何れか一つの態様に係る画像処理装置において、画像処理装置は、複数の2次元画像と3次元画像とを対比可能な状態で画面に表示する第1動作モードと、複数の位置特定画像を3次元画像と対比可能な状態で画面に表示する第2動作モードとを有し、プロセッサは、与えられた設定指示に従って、第1動作モード及び第2動作モードの何れかの動作モードを設定する画像処理装置である。
本開示の技術に係る第10の態様は、第5の態様から第9の態様の何れか一つの態様に係る画像処理装置において、3次元画像は、注目2次元画像に対応する視点で、画面に表示される画像処理装置である。
本開示の技術に係る第11の態様は、プロセッサを備え、プロセッサは、実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と3次元画像とを対比可能な状態で画面に表示し、与えられた選択指示に従って、複数の部分から注目部分を選択し、複数の2次元画像のうちの注目部分に対応する注目2次元画像を選択し、注目2次元画像を複数の2次元画像のうちの残りの2次元画像とは区別可能な状態で画面に表示する画像処理装置である。
本開示の技術に係る第12の態様は、第11の態様に係る画像処理装置において、プロセッサは、複数の2次元画像を得るための撮像が行われた複数の撮像位置を特定可能な複数の位置特定画像を3次元画像と対比可能な状態で画面に表示し、選択指示に従って、複数の位置特定画像から注目位置特定画像を選択し、注目位置特定画像から特定される撮像位置から撮像が行われることによって得られた2次元画像を注目2次元画像として複数の2次元画像から選択する画像処理装置である。
本開示の技術に係る第13の態様は、実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と3次元画像とを対比可能な状態で画面に表示すること、与えられた選択指示に従って、複数の2次元画像から注目2次元画像を選択すること、及び、複数の部分のうちの注目2次元画像に対応する注目部分を視覚的に特定可能な状態で画面に表示することを備える画像処理方法である。
本開示の技術に係る第14の態様は、実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と3次元画像とを対比可能な状態で画面に表示すること、与えられた選択指示に従って、複数の2次元画像から注目2次元画像を選択すること、及び、複数の部分のうちの注目2次元画像に対応する注目部分を視覚的に特定可能な状態で画面に表示することを含む処理をコンピュータに実行させるためのプログラムである。
以下、添付図面に従って本開示の技術に係る画像処理装置、画像処理方法、及びプログラムの実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。ELとは、“Electro Luminescence”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。GNSSとは、“Global Navigation Satellite System”の略称を指す。GPSとは、“Global Positioning System”の略称を指す。SfMとは、“Structure from Motion”の略称を指す。MVSとは、“Multi-View Stereo”の略称を指す。TPUとは、“Tensor Processing Unit”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。
[第1実施形態]
はじめに、本開示の第1実施形態について説明する。
はじめに、本開示の第1実施形態について説明する。
一例として図1に示すように、点検システムSは、点検支援装置10及び撮像装置100を備えている。点検システムSは、実空間上の対象物4を点検するためのシステムである。対象物4は、本開示の技術の「対象物」の一例である。
一例として、対象物4は、鉄筋コンクリート製の橋脚である。ここでは、対象物4の一例として、橋脚が挙げられているが、対象物4は、橋脚以外の道路設備であってもよい。道路設備としては、例えば、路面、トンネル、ガードレール、信号機、及び/又は、防風フェンス等が挙げられる。対象物4は、道路設備以外の社会的なインフラストラクチャ(例えば、空港設備、港湾設備、貯水設備、ガス設備、医療設備、消防設備、及び/又は、教育設備等)であってもよいし、私的な所有物であってもよい。また、対象物4は、土地(例えば、国有地及び/又は私有地等)であってもよい。対象物4として例示している橋脚は、鉄筋コンクリート製以外の橋脚でもよい。第1実施形態において、点検とは、例えば、対象物4の状態の点検を指す。例えば、対象物4の損傷の有無及び/又は損傷の程度等が点検システムSによって点検される。
点検支援装置10は、本開示の技術に係る「画像処理装置」の一例である。点検支援装置10は、例えば、デスクトップ型パーソナルコンピュータである。ここでは、点検支援装置10として、デスクトップ型パーソナルコンピュータを例示しているが、これは、あくまでも一例に過ぎず、ノート型パーソナルコンピュータであってもよい。また、パーソナルコンピュータに限らず、サーバであってもよい。サーバは、オンプレミスで点検支援装置10と共に用いられるメインフレームであってもよいし、クラウドコンピューティングによって実現される外部サーバであってもよい。また、サーバは、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現される外部サーバであってもよい。点検支援装置10は、撮像装置100に対して通信可能に接続されている。点検支援装置10は、点検者6によって使用される。点検支援装置10は、対象物4が設置されている現場で使用されてもよいし、対象物4が設置されている現場とは別の場所で使用されてもよい。
撮像装置100は、例えば、レンズ交換式のデジタルカメラである。ここでは、撮像装置100として、レンズ交換式のデジタルカメラを例示しているが、これは、あくまでも一例に過ぎず、スマートデバイス又はウェアラブル端末等の各種の電子機器に内蔵されるデジタルカメラであってもよい。また、撮像装置100は、眼鏡型のアイウェア端末でもよく、頭部に装着するヘッドマウントディスプレイ端末でもよい。撮像装置100は、撮像者8によって使用される。
一例として図2に示すように、点検支援装置10は、コンピュータ12、受付装置14、ディスプレイ16、及び通信装置18を備えている。
コンピュータ12は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ12は、プロセッサ20、ストレージ22、及びRAM24を備えている。プロセッサ20は、本開示の技術に係る「プロセッサ」の一例である。プロセッサ20、ストレージ22、RAM24、受付装置14、ディスプレイ16、及び通信装置18は、バス26に接続されている。
プロセッサ20は、例えば、CPUを有しており、点検支援装置10の全体を制御する。ここでは、プロセッサ20がCPUを有する例を挙げているが、これは、あくまでも一例に過ぎない。例えば、プロセッサ20は、CPU及びGPUを有していてもよい。この場合、例えば、GPUは、CPUの制御下で動作し、画像処理の実行を担う。
ストレージ22は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。ストレージ22としては、例えば、HDD及びSSDが挙げられる。なお、HDD及びSSDは、あくまでも一例に過ぎず、HDD及び/又はSSDに代えて、或いは、HDD及び/又はSSDと共に、フラッシュメモリ、磁気抵抗メモリ、及び/又は強誘電体メモリを用いてもよい。
RAM24は、一時的に情報が記憶されるメモリであり、プロセッサ20によってワークメモリとして用いられる。RAM24としては、例えば、DRAM及び/又はSRAM等が挙げられる。
受付装置14は、キーボード、マウス、及びタッチパネル等(いずれも図示省略)を有しており、点検者6からの各種指示を受け付ける。ディスプレイ16は、画面16Aを有する。画面16Aは、本開示の技術に係る「画面」の一例である。ディスプレイ16は、プロセッサ20の制御下で、各種情報(例えば、画像及び文字等)を画面16Aに表示する。ディスプレイ16としては、例えば、ELディスプレイ(例えば、有機ELディスプレイ又は無機ELディスプレイ)が挙げられる。なお、ELディスプレイに限らず、液晶ディスプレイ等の他の種類のディスプレイであってもよい。
通信装置18は、撮像装置100と通信可能に接続されている。ここでは、通信装置18が既定の無線通信規格で撮像装置100と無線通信可能に接続されている。既定の無線通信規格とは、例えば、Wi-Fi(登録商標)又はBluetooth(登録商標)等が挙げられる。通信装置18は、点検支援装置10との間の情報の授受を司る。例えば、通信装置18は、プロセッサ20からの要求に応じた情報を撮像装置100に送信する。また、通信装置18は、撮像装置100から送信された情報を受信し、受信した情報を、バス26を介してプロセッサ20に出力する。なお、通信装置18は、撮像装置100と有線により通信可能に接続されてもよい。
一例として図3に示すように、撮像装置100は、コンピュータ102、イメージセンサ104、測位ユニット106、加速度センサ108、角速度センサ110、及び通信装置112を備えている。
コンピュータ102は、プロセッサ114、ストレージ116、及びRAM118を備える。プロセッサ114、ストレージ116、RAM118、イメージセンサ104、測位ユニット106、加速度センサ108、角速度センサ110、及び通信装置112は、バス120に接続されている。プロセッサ114、ストレージ116、及びRAM118は、例えば、上述の点検支援装置10に備えられたプロセッサ20、ストレージ22、及びRAM24と同様のハードウェアによって実現される。
イメージセンサ104は、例えば、CMOSイメージセンサである。なお、ここでは、イメージセンサ104としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、他のイメージセンサであってもよい。イメージセンサ104は、被写体(一例として、対象物4)を撮像し、撮像することで得た画像データを出力する。
測位ユニット106は、撮像装置100の位置を検出する装置である。撮像装置100の位置は、例えば、GNSS(例えば、GPS)を用いて検出される。測位ユニット106は、GNSS受信機(図示省略)を有する。GNSS受信機は、例えば、複数の衛星から送信された電波を受信する。測位ユニット106は、GNSS受信機で受信された電波に基づいて撮像装置100の位置を検出し、検出した位置に応じた測位データ(例えば、緯度、経度、及び高度を示すデータ)を出力する。
加速度センサ108は、撮像装置100のピッチ軸、ヨー軸、及びロール軸の各軸方向の加速度を検出する。加速度センサ108は、撮像装置100の各軸方向の加速度に応じた加速度データを出力する。角速度センサ110は、撮像装置100のピッチ軸、ヨー軸、及びロール軸の各軸周りの角速度を検出する。角速度センサ110は、撮像装置100の各軸周りの角速度に応じた角速度データを出力する。
プロセッサ114は、測位データ及び/又は加速度データに基づいて撮像装置100の位置を取得し、取得した位置を示す位置データを生成する。また、プロセッサ114は、角速度データに基づいて撮像装置100の姿勢(すなわち、相対座標系に定められた基準姿勢に対する姿勢の変化量)を取得し、取得した姿勢を示す姿勢データを生成する。以下、撮像装置100の位置を「撮像位置」と称し、撮像装置100の姿勢を「撮像姿勢」と称する。
なお、プロセッサ114が測位データのみに基づいて撮像位置を取得する場合には、加速度センサ108が省かれてもよい。一方、プロセッサ114が加速度データのみに基づいて撮像位置を取得する場合には、測位ユニット106が省かれてもよい。プロセッサ114が測位データに基づいて撮像位置を取得する場合には、絶対座標系における撮像位置が測位データに基づいて導出される。一方、プロセッサ114が加速度データに基づいて撮像位置を取得する場合には、相対座標系に定められた基準位置に対する撮像位置の変化量が加速度データに基づいて導出される。
通信装置112は、点検支援装置10と通信可能に接続されている。通信装置112は、例えば、上述の点検支援装置10に備えられた通信装置18と同様のハードウェアによって実現される。
撮像装置100は、画像データ、位置データ、及び姿勢データを点検支援装置10に対して送信する。画像データは、撮像装置100によって対象物4が撮像されることで得られた2次元画像50を示すデータである。位置データは、撮像装置100が撮像を行った場合の撮像位置を示すデータであり、画像データと対応付けられている。同様に、姿勢データは、撮像装置100が撮像を行った場合の撮像姿勢を示すデータであり、画像データと対応付けられている。すなわち、位置データ及び姿勢データは、画像データに付帯された付帯データである。
ところで、例えば、撮像装置100によって複数の撮像位置から対象物4が撮像されることで得られた複数の2次元画像50のみが、点検支援装置10に備えられたディスプレイ16の画面16Aに表示される場合、画面16Aに表示された複数の2次元画像50に基づいて、各2次元画像50と、対象物4のうちの各2次元画像50に対応する領域との対応関係を把握する作業には手間がかかる。そして、複数の2次元画像50のフレーム数が多くなる程、対応関係を把握する作業の煩雑さは増す。このような事情に鑑み、第1実施形態では、点検支援装置10が、点検支援情報生成処理及び点検支援処理を行う。以下、点検支援装置10によって行われる点検支援情報生成処理及び点検支援処理について詳述する。
一例として図4に示すように、点検支援装置10のストレージ22には、点検支援情報生成プログラム30が記憶されている。点検支援装置10のプロセッサ20は、ストレージ22から点検支援情報生成プログラム30を読み出し、読み出した点検支援情報生成プログラム30をRAM24上で実行する。プロセッサ20は、RAM24上で実行する点検支援情報生成プログラム30に従って、点検支援情報56を生成するための点検支援情報生成処理を行う。
点検支援情報生成処理は、プロセッサ20が点検支援情報生成プログラム30に従って、取得部32、3次元画像生成部34、及び点検支援情報生成部36として動作することで実現される。
一例として図5に示すように、対象物4の周方向に位置する複数の点P1は、撮像装置100による撮像位置を示している。撮像者8は、対象物4の周囲を移動しながら、対象物4の周方向の複数の撮像位置から撮像装置100によって対象物4を撮像する。一例として、撮像者8は、各撮像位置から撮像装置100によって対象物4のうちの異なる領域を撮像する。各撮像位置から撮像装置100によって対象物4のうちの異なる領域が撮像されることにより、複数の領域を含む対象物4の全体が撮像される。
撮像装置100によって撮像されることで得られた各2次元画像50に対応する撮像位置(すなわち、点P1)は、対象物4に注がれる視線Lの起点に相当し、各2次元画像50に対応する撮像姿勢は、対象物4に注がれる視線Lの向きに相当する。対象物4と視線Lとが交わる点P2は、視線Lで対象物4を見た場合の視点に相当する。各撮像位置から撮像装置100によって対象物4が撮像されることにより、各視点に対応する2次元画像50が得られる。各2次元画像50は、対象物4のうちの各領域に対応する画像である。
なお、ここでは、撮像者8が対象物4の周囲を移動しながら各撮像位置から撮像装置100によって対象物4を撮像する例が挙げられているが、撮像装置100が移動体に搭載され、移動体が対象物4の周囲を移動している場合に、各撮像位置から撮像装置100によって対象物4が撮像されてもよい。また、移動体は、例えば、ドローン、ゴンドラ、台車、高所作業車両、無人搬送車、又はその他の車両等でもよい。
撮像装置100は、各撮像位置から撮像することで得た2次元画像50を示す画像データと、撮像を行った場合の撮像位置を示す位置データと、撮像を行った場合の撮像姿勢を示す姿勢データとを対応付ける。そして、撮像装置100は、各画像データと、各画像データに対応付けられた位置データ及び姿勢データとを点検支援装置10に対して送信する。
一例として図6に示すように、取得部32は、点検支援装置10で受信された各画像データに基づいて2次元画像50を取得する。また、取得部32は、点検支援装置10で受信された各位置データに基づいて、各2次元画像50に対応する撮像位置を取得する。さらに、取得部32は、点検支援装置10で受信された各姿勢データに基づいて、各2次元画像50に対応する撮像姿勢を取得する。
3次元画像生成部34は、取得部32によって取得された複数の2次元画像50に基づいて、対象物4を示す3次元画像52を生成する。複数の2次元画像50に基づいて3次元画像52を生成する画像処理技術としては、SfM、MVS、エピポーラ幾何、及びステレオマッチング処理等が挙げられる。3次元画像52に含まれる複数の画素の位置は、複数の2次元画像50から得られた複数の3次元座標によって特定される。3次元画像52は、複数の3次元座標によって規定される3次元モデルである。
一例として図7に示すように、3次元画像生成部34によって生成された3次元画像52は、各2次元画像50に対応する複数の部分54を有する。各部分54は、各2次元画像50に対応する画素の集合である画素群によって形成されている。点検支援情報生成部36は、取得部32によって取得された各2次元画像50と、各2次元画像50に対応する撮像位置と、各2次元画像50に対応する撮像姿勢と、各2次元画像50に対応する部分54とを対応付けた情報である点検支援情報56を生成する。点検支援情報56は、ストレージ22に記憶される。
一例として図8に示すように、点検支援装置10のストレージ22には、点検支援プログラム40が記憶されている。点検支援プログラム40は、本開示の技術に係る「プログラム」の一例である。プロセッサ20は、ストレージ22から点検支援プログラム40を読み出し、読み出した点検支援プログラム40をRAM24上で実行する。プロセッサ20は、RAM24上で実行する点検支援プログラム40に従って、点検者6(図1参照)による点検を支援するための点検支援処理を行う。
点検支援処理は、プロセッサ20が点検支援プログラム40に従って、動作モード設定部42、第1モード処理部44、第2モード処理部46、及び第3モード処理部48として動作することで実現される。
点検支援装置10は、動作モードとして、第1モード、第2モード、及び第3モードを有する。動作モード設定部42は、点検支援装置10の動作モードとして、第1モード、第2モード、及び第3モードを選択的に設定するモード設定処理を行う。
モード設定処理において、動作モード設定部42によって点検支援装置10の動作モードが第1モードに設定された場合、プロセッサ20は、第1モード処理部44として動作する。第1モード処理部44は、第1モード処理を行う。第1モード処理は、第1モード処理部44が、第1表示制御部44A、第1画像選択部44B、第1画素抽出部44C、及び第1画像生成部44Dとして動作することで実現される。
モード設定処理において、動作モード設定部42によって点検支援装置10の動作モードが第2モードに設定された場合、プロセッサ20は、第2モード処理部46として動作する。第2モード処理部46は、第2モード処理を行う。第2モード処理は、第2モード処理部46が、第2表示制御部46A、第2画像選択部46B、第2画素抽出部46C、及び第2画像生成部46Dとして動作することで実現される。
モード設定処理において、動作モード設定部42によって点検支援装置10の動作モードが第3モードに設定された場合、プロセッサ20は、第3モード処理部48として動作する。第3モード処理部48は、第3モード処理を行う。第3モード処理は、第3モード処理部48が、第3表示制御部48A、第3画像選択部48B、及び第3画像生成部48Cとして動作することで実現される。
一例として図9に示すように、動作モード設定部42は、デフォルトでは、点検支援装置10の動作モードとして、第1モードを設定する。動作モード設定部42によって点検支援装置10の動作モードが第1モードに設定された場合に、第1表示制御部44Aは、第1画像61を画面16Aに表示する。第1画像61の詳細については、後述するが、第1画像61には、ソフトキーとして第2モード設定ボタン72及び第3モード設定ボタン73が含まれる。
第1画像61が画面16Aに表示されている状態で、第2モード設定ボタン72を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第2モード設定指示信号をプロセッサ20に対して出力する。同様に、第1画像61が画面16Aに表示されている状態で、第3モード設定ボタン73を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第3モード設定指示信号をプロセッサ20に対して出力する。
動作モード設定部42は、点検支援装置10の動作モードが第1モードに設定されている場合に、第2モード設定指示信号又は第3モード設定指示信号がプロセッサ20に入力されたか否かを判定する。第2モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第2モードを設定する。一方、第3モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第3モードを設定する。
動作モード設定部42によって点検支援装置10の動作モードが第2モードに設定された場合に、第2表示制御部46Aは、第2画像62を画面16Aに表示する。第2画像62の詳細については、後述するが、第2画像62には、ソフトキーとして第1モード設定ボタン71及び第3モード設定ボタン73が含まれる。
第2画像62が画面16Aに表示されている状態で、第1モード設定ボタン71を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第1モード設定指示信号をプロセッサ20に対して出力する。同様に、第2画像62が画面16Aに表示されている状態で、第3モード設定ボタン73を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第3モード設定指示信号をプロセッサ20に対して出力する。
動作モード設定部42は、点検支援装置10の動作モードが第2モードに設定されている場合に、第1モード設定指示信号又は第3モード設定指示信号がプロセッサ20に入力されたか否かを判定する。第1モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第1モードを設定する。一方、第3モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第3モードを設定する。
動作モード設定部42によって点検支援装置10の動作モードが第3モードに設定された場合に、第3表示制御部48Aは、第3画像63を画面16Aに表示する。第3画像63の詳細については、後述するが、第3画像63には、第1モード設定ボタン71及び第2モード設定ボタン72が含まれる。
第3画像63が画面16Aに表示されている状態で、第1モード設定ボタン71を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第1モード設定指示信号をプロセッサ20に対して出力する。同様に、第3画像63が画面16Aに表示されている状態で、第3モード設定ボタン73を押す指示である設定指示が受付装置14によって受け付けられた場合、受付装置14は、第3モード設定指示信号をプロセッサ20に対して出力する。
動作モード設定部42は、点検支援装置10の動作モードが第3モードに設定されている場合に、第1モード設定指示信号又は第2モード設定指示信号がプロセッサ20に入力されたか否かを判定する。第1モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第1モードを設定する。一方、第2モード設定指示信号がプロセッサ20に入力された場合、動作モード設定部42は、点検支援装置10の動作モードとして、第2モードを設定する。
以下、第1モード設定指示信号、第2モード設定指示信号、及び第3モード設定指示信号を区別して説明する必要がない場合、第1モード設定指示信号、第2モード設定指示信号、及び第3モード設定指示信号を「モード設定指示信号」と称する。
点検支援装置10の複数の動作モードのうちの第2モードは、本開示の技術に係る「第1動作モード」の一例である。点検支援装置10の複数の動作モードのうちの第3モードは、本開示の技術に係る「第2動作モード」の一例である。
一例として図10には、第1画像61が画面16Aに表示されている状態が示されている。第1画像61は、第1画像領域81と、第2画像領域82とを含む。一例として、第1画像領域81と第2画像領域82とは、第1画像61の左右方向に並んだ状態で画面16Aに表示される。第1画像領域81は、複数の2次元画像50を含んでおり、第2画像領域82は、3次元画像52を含んでいる。
第1表示制御部44Aは、点検支援情報56に含まれる複数の2次元画像50に基づいて、第1画像領域81に複数の2次元画像50を含める。また、第1表示制御部44Aは、点検支援情報56に含まれる3次元画像52に基づいて、第2画像領域82に3次元画像52を含める。
第1画像領域81には、複数の2次元画像50のうちの既定数の2次元画像50が含まれる。既定数は、例えば、点検者6が既定数を指定する指示を受付装置14(図9参照)に対して付与することにより設定される。また、例えば、点検者6が第1画像領域81をスクロールする指示を受付装置14に対して付与することにより、第1画像領域81がスクロールされ、これにより、第1画像領域81に含まれる2次元画像50が変更される。
第2画像領域82には、3次元画像52がレンダリングされることにより2次元画像化された状態で含まれる。例えば、点検者6が3次元画像52の大きさを変更する指示を受付装置14(図9参照)に対して付与することにより、3次元画像52の大きさが変更される。また、例えば、点検者6が3次元画像52を回転させる指示を受付装置14に対して付与することにより、3次元画像52が回転する。
複数の2次元画像50を含む第1画像領域81と、3次元画像52を含む第2画像領域82とが並んだ状態で画面16Aに表示されることにより、複数の2次元画像50と3次元画像52とが対比可能な状態になる。なお、図10に示す例では、第1画像領域81と第2画像領域82とが第1画像61の左右方向に並んだ状態で画面16Aに表示される例が示されているが、例えば、第1画像領域81と第2画像領域82とが第1画像61の上下方向に並んだ状態で画面16Aに表示されてもよく、また、第1画像領域81が第2画像領域82の一部に組み込まれた状態で第1画像領域81と第2画像領域82とが画面16Aに表示されてもよい。
2次元画像50は、本開示の技術に係る「2次元画像」の一例である。3次元画像52は、本開示の技術に係る「3次元画像」の一例である。第1画像領域81は、本開示の技術に係る「第1領域」の一例である。第2画像領域82は、本開示の技術に係る「第2領域」の一例である。
一例として図11に示すように、第1画像61が画面16Aに表示されている状態で、第1画像領域81に含まれる複数の2次元画像50のうちのいずれかの2次元画像50を選択する指示である選択指示が受付装置14によって受け付けられた場合、受付装置14は、選択指示を示す選択指示信号をプロセッサ20に対して出力する。選択指示は、本開示の技術に係る「選択指示」の一例である。
第1画像選択部44Bは、選択指示信号がプロセッサ20に入力された場合、選択指示信号により示される選択指示に従って、点検支援情報56に含まれる複数の2次元画像50から選択指示に対応する2次元画像50(以下、「注目2次元画像50A」と称する)を選択する。注目2次元画像50Aは、本開示の技術に係る「注目2次元画像」の一例である。
一例として図12に示すように、第1画素抽出部44Cは、点検支援情報56から注目2次元画像50Aに対応する撮像位置及び撮像姿勢を取得する。また、第1画素抽出部44Cは、取得した撮像位置及び撮像姿勢に基づいて注目2次元画像50Aに対応する視点を導出する。そして、第1画素抽出部44Cは、導出した視点で3次元画像52を第2画像領域82に含めるための画素を、点検支援情報56に含まれる3次元画像52から抽出する。また、第1画素抽出部44Cは、3次元画像52から画素を抽出する場合に、3次元画像52の全体を第2画像領域82に収める大きさで含めるための画素を3次元画像52から抽出する。
第1画像生成部44Dは、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第1画像生成部44Dは、第1画素抽出部44Cによって抽出された画素に基づいて、注目2次元画像50Aに対応する視点で第2画像領域82に全体が収まる大きさを有する3次元画像52を含む第2画像領域82を生成する。例えば、3次元画像52は、注目2次元画像50Aに対応する視点が第2画像領域82の中心82Cに位置するように第2画像領域82に含められる。
一例として図13に示すように、第1画像生成部44Dは、生成した第1画像領域81及び第2画像領域82を合成することにより第1画像61を生成する。
第1表示制御部44Aは、第1画像生成部44Dによって生成された第1画像61を示す第1画像データをディスプレイ16に対して出力する。これにより、第1画像61がディスプレイ16の画面16Aに表示される。具体的には、複数の2次元画像50のうちの既定数の2次元画像50が第1画像領域81に含められた状態で画面16Aに表示され、かつ注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示される。注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示されることにより、注目2次元画像50Aが複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態になる。
また、3次元画像52は、注目2次元画像50Aに対応する視点で、かつ第2画像領域82に全体が収まる大きさで画面16Aに表示される。3次元画像52が注目2次元画像50Aに対応する視点で画面16Aに表示されることにより、3次元画像52のうちの注目2次元画像50Aに対応する部分54(以下、「注目部分54A」と称する)が視覚的に特定可能な状態になる。「部分54」は、本開示の技術に係る「部分」の一例であり、3次元画像52のうちの注目部分54Aは、本開示の技術に係る「注目部分」の一例である。
なお、図13に示す例では、注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示される。しかしながら、注目2次元画像50Aは、他の態様により残りの2次元画像50とは区別可能な状態で画面16Aに表示されてもよい。例えば、注目2次元画像50Aが残りの2次元画像50とは異なる色で表された態様、注目2次元画像50Aに模様が付された態様、又は、注目2次元画像50Aが残りの2次元画像50よりも輝度が高められた態様等で画面16Aに表示されてもよい。このような例によっても、注目2次元画像50Aが残りの2次元画像50とは区別可能な状態になる。
一例として図14には、第2画像62が画面16Aに表示されている状態が示されている。第2画像62は、第1画像領域81と、第3画像領域83とを含む。一例として、第1画像領域81と第3画像領域83とは、第2画像62の左右方向に並んだ状態で画面16Aに表示される。第1画像領域81は、第1画像61(図10参照)の第1画像領域81と同様である。第3画像領域83は、3次元画像52を含んでいる。第3画像領域83は、本開示の技術に係る「第2領域」の一例である。
第2表示制御部46Aは、点検支援情報56に含まれる複数の2次元画像50に基づいて、第1画像領域81に複数の2次元画像50を含める。また、第2表示制御部46Aは、点検支援情報56に含まれる3次元画像52に基づいて、第3画像領域83に3次元画像52を含める。
第3画像領域83には、3次元画像52がレンダリングされることにより2次元画像化された状態で含まれる。例えば、点検者6が3次元画像52の大きさを変更する指示を受付装置14(図9参照)に対して付与することにより、3次元画像52の大きさが変更される。また、例えば、点検者6が3次元画像52を回転させる指示を受付装置14に対して付与することにより、3次元画像52が回転する。
複数の2次元画像50を含む第1画像領域81と、3次元画像52を含む第3画像領域83とが並んだ状態で画面16Aに表示されることにより、複数の2次元画像50と3次元画像52とが対比可能な状態になる。
なお、図14では、第1画像領域81と第3画像領域83とが第2画像62の左右方向に並んだ状態で画面16Aに表示される例が示されているが、例えば、第1画像領域81と第3画像領域83とが第2画像62の上下方向に並んだ状態で画面16Aに表示されてもよく、また、第1画像領域81が第3画像領域83の一部に組み込まれた状態で第1画像領域81と第3画像領域83とが画面16Aに表示されてもよい。
一例として図15に示すように、第2画像62が画面16Aに表示されている状態で、第1画像領域81に含まれる複数の2次元画像50のうちのいずれかの2次元画像50を選択する指示である選択指示が受付装置14によって受け付けられた場合、受付装置14は、選択指示を示す選択指示信号をプロセッサ20に対して出力する。
第2画像選択部46Bは、選択指示信号がプロセッサ20に入力された場合、選択指示信号により示される選択指示に従って、点検支援情報56に含まれる複数の2次元画像50から選択指示に対応する注目2次元画像50Aを選択する。
一例として図16に示すように、第2画素抽出部46Cは、点検支援情報56に含まれる3次元画像52から、注目2次元画像50Aに対応付けされた注目部分54Aを抽出する。
第2画像生成部46Dは、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第2画像生成部46Dは、第2画素抽出部46Cによって抽出された注目部分54Aに基づいて、3次元画像52のうちの注目部分54Aを含む第3画像領域83を生成する。
一例として図17に示すように、第2画像生成部46Dは、生成した第1画像領域81及び第3画像領域83を合成することにより第2画像62を生成する。
第2表示制御部46Aは、第2画像生成部46Dによって生成された第2画像62を示す第2画像データをディスプレイ16に対して出力する。これにより、第2画像62がディスプレイ16の画面16Aに表示される。具体的には、複数の2次元画像50のうちの既定数の2次元画像50が第1画像領域81に含められた状態で画面16Aに表示され、かつ注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示される。
また、3次元画像52のうちの注目部分54Aが拡大された状態で画面16Aに表示される。3次元画像52のうちの注目部分54Aが拡大された状態で画面16Aに表示されることにより、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。すなわち、3次元画像52のうちの注目部分54Aが拡大された状態で画面16Aに表示されることにより、注目部分54Aが3次元画像52を形成する複数の部分54のうちの残りの部分54とは区別可能な状態になる。これにより、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。
また、注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示されることにより、注目2次元画像50Aが複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態になる。これにより、注目2次元画像50Aと、3次元画像52のうちの注目部分54Aとの対応関係が視覚的に特定可能な状態になる。
なお、図17に示す例では、3次元画像52のうちの注目部分54Aが拡大された状態で画面16Aに表示される。しかしながら、3次元画像52の全体が第3画像領域83に収まる大きさで画面16Aに表示され、かつ3次元画像52のうちの注目部分54Aが他の態様により残りの部分54とは区別可能な状態で画面16Aに表示されてもよい。例えば、注目部分54Aが残りの部分54とは異なる色で表された態様、注目部分54Aに模様が付された態様、注目部分54Aが枠で囲われた態様、又は、注目部分54Aの輪郭を形成する画素が周辺の画素よりも輝度が高められた態様等で画面16Aに表示されてもよい。このような例によっても、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。
一例として図18には、第3画像63が画面16Aに表示されている状態が示されている。第3画像63は、第1画像領域81と、第4画像領域84とを含む。一例として、第1画像領域81と第4画像領域84とは、第3画像63の左右方向に並んだ状態で画面16Aに表示される。第1画像領域81は、第1画像61(図10参照)の第1画像領域81と同様である。第4画像領域84は、3次元画像52と、複数の位置特定画像92とを含む。各位置特定画像92は、複数の2次元画像50を得るための撮像が行われた複数の撮像位置を特定するための画像であり、各2次元画像50に対応する撮像位置を示す。
第3表示制御部48Aは、点検支援情報56に含まれる複数の2次元画像50に基づいて、第1画像領域81に複数の2次元画像50を含める。また、第3表示制御部48Aは、点検支援情報56に含まれる3次元画像52に基づいて、第4画像領域84に3次元画像52を含める。
第4画像領域84には、3次元画像52がレンダリングされることにより2次元画像化された状態で含まれる。例えば、点検者6が3次元画像52の大きさを変更する指示を受付装置14(図9参照)に対して付与することにより、3次元画像52の大きさが変更される。また、例えば、点検者6が3次元画像52を回転させる指示を受付装置14に対して付与することにより、3次元画像52が回転する。
また、第3表示制御部48Aは、点検支援情報56に含まれる各撮像位置に基づいて、第4画像領域84に複数の位置特定画像92を含める。各位置特定画像92は、一例として、プレート状に表されている。複数の位置特定画像92は、3次元画像52と対比可能な状態で第4画像領域84に含められる。具体的には、複数の位置特定画像92は、3次元画像52の周囲に配置されることで3次元画像52と対向した状態で第4画像領域84に含められる。つまり、第4画像領域84は、複数の位置特定画像92と3次元画像52とが対向した態様を示す画像を含む。
第1画像領域81と第4画像領域84とが並んだ状態で画面16Aに表示されることにより、複数の2次元画像50と3次元画像52とが対比可能な状態になり、かつ複数の2次元画像50と複数の位置特定画像92とが対比可能な状態になる。
なお、図18では、第1画像領域81と第4画像領域84とが第3画像63の左右方向に並んだ状態で画面16Aに表示される例が示されているが、例えば、第1画像領域81と第4画像領域84とが第3画像63の上下方向に並んだ状態で画面16Aに表示されてもよく、また、第1画像領域81が第4画像領域84の一部に組み込まれた状態で第1画像領域81と第4画像領域84とが画面16Aに表示されてもよい。
第1画像領域81は、本開示の技術に係る「第1領域」及び「第3領域」の一例である。第4画像領域84は、本開示の技術に係る「第2領域」及び「第4領域」の一例である。位置特定画像92は、本開示の技術に係る「位置特定画像」の一例である。
一例として図19に示すように、第3画像63が画面16Aに表示されている状態で、第4画像領域84に含まれる複数の位置特定画像92のうちのいずれかの位置特定画像92を選択する指示である選択指示が受付装置14によって受け付けられた場合、受付装置14は、選択指示を示す選択指示信号をプロセッサ20に対して出力する。なお、以下、複数の位置特定画像92のうちの選択された位置特定画像92を「注目位置特定画像92A」と称する。
第3画像選択部48Bは、選択指示信号がプロセッサ20に入力された場合、選択指示信号により示される選択指示に従って、点検支援情報56に含まれる複数の撮像位置から注目位置特定画像92Aに対応する撮像位置(以下、「注目撮像位置」と称する)を選択する。そして、第3画像選択部48Bは、点検支援情報56に含まれる複数の2次元画像50から注目撮像位置に対応する注目2次元画像50Aを選択する。注目2次元画像50Aは、注目撮像位置から撮像が行われることによって得られた2次元画像50である。注目位置特定画像92Aは、本開示の技術に係る「注目位置特定画像」の一例である。注目撮像位置は、本開示の技術に係る「注目撮像位置」の一例である。
一例として図20に示すように、第3画像生成部48Cは、点検支援情報56に含まれる3次元画像52に基づいて、3次元画像52を含む第4画像領域84を生成する。また、第3画像生成部48Cは、点検支援情報56に含まれる撮像位置及び撮像姿勢に基づいて、複数の位置特定画像92を第4画像領域84に含める。複数の位置特定画像92は、3次元画像52の周囲に配置されることにより3次元画像52と対向した状態で第4画像領域84に含められる。各位置特定画像92は、各撮像位置に対応する位置に各撮像姿勢に対応する姿勢で配置される。
また、第3画像生成部48Cは、複数の位置特定画像92のうちの注目撮像位置に対応する注目位置特定画像92Aを第4画像領域84に含める。注目位置特定画像92Aは、複数の位置特定画像92のうちの残りの位置特定画像92とは区別可能な状態で第4画像領域84に含められる。図20に示す例では、注目位置特定画像92Aが残りの位置特定画像92とは区別可能な状態の一例として、注目位置特定画像92Aが残りの位置特定画像92とは異なる色で表されている。なお、注目位置特定画像92Aは、枠で囲われてもよく、注目位置特定画像92Aに模様が付されてもよい。また、注目位置特定画像92Aの輪郭を形成する画素が周辺の画素よりも輝度が高められてもよい。
さらに、第3画像生成部48Cは、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。
一例として図21に示すように、第3画像生成部48Cは、生成した第1画像領域81及び第4画像領域84を合成することにより第3画像63を生成する。
第3表示制御部48Aは、第3画像生成部48Cによって生成された第3画像63を示す第3画像データをディスプレイ16に対して出力する。これにより、第3画像63がディスプレイ16の画面16Aに表示される。具体的には、複数の2次元画像50のうちの既定数の2次元画像50が第1画像領域81に含められた状態で画面16Aに表示され、かつ注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示される。また、3次元画像52が画面16Aに表示される。
さらに、複数の位置特定画像92は、3次元画像52の周囲に配置されることで3次元画像52と対向した状態で画面16Aに表示され、注目位置特定画像92Aは、複数の位置特定画像92のうちの残りの位置特定画像92とは区別可能な状態で画面16Aに表示される。注目位置特定画像92Aが残りの位置特定画像92とは区別可能な状態で画面16Aに表示されることにより、3次元画像52のうちの注目位置特定画像92Aに対応する注目部分54Aが視覚的に特定可能な状態になる。すなわち、注目位置特定画像92Aによって撮像位置及び撮像姿勢が特定され、特定された撮像位置及び撮像姿勢と3次元画像52のうちの注目部分54Aとの対応関係が視覚的に特定可能な状態になる。これにより、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。
また、注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示されることにより、注目2次元画像50Aが複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態になる。これにより、注目2次元画像50Aと、3次元画像52のうちの注目部分54Aとの対応関係が視覚的に特定可能な状態になる。
なお、図21に示す例では、3次元画像52の全体が第4画像領域84に収まる大きさで画面16Aに表示される。しかしながら、3次元画像52のうちの注目部分54Aが拡大された状態で画面16Aに表示されてもよい。このような例によっても、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。
次に、第1実施形態に係る点検支援装置10の作用について図22から図26を参照しながら説明する。
はじめに、図22を参照しながら、点検支援装置10のプロセッサ20によって行われる点検支援情報生成処理の流れの一例について説明する。
図22に示す点検支援情報生成処理では、先ず、ステップST10で、取得部32(図6参照)は、点検支援装置10で受信された各画像データに基づいて2次元画像50を取得する。また、取得部32は、点検支援装置10で受信された各位置データに基づいて、各2次元画像50に対応する撮像位置を取得する。さらに、取得部32は、点検支援装置10で受信された各姿勢データに基づいて、各2次元画像50に対応する撮像姿勢を取得する。ステップST10の処理が実行された後、点検支援情報生成処理は、ステップST12へ移行する。
ステップST12で、3次元画像生成部34(図6参照)は、ステップST10で取得された複数の2次元画像50に基づいて、対象物4を示す3次元画像52を生成する。ステップST12の処理が実行された後、点検支援情報生成処理は、ステップST14へ移行する。
ステップST14で、点検支援情報生成部36(図7参照)は、ステップST10で取得された各2次元画像50と、各2次元画像50に対応する撮像位置と、各2次元画像50に対応する撮像姿勢と、各2次元画像50に対応する部分54とを対応付けた情報である点検支援情報56を生成する。ステップST14の処理が実行された後、点検支援情報生成処理は終了する。
次に、図23から図26を参照しながら、点検支援装置10のプロセッサ20によって行われる点検支援処理の流れの一例について説明する。はじめに、図23を参照しながら、点検支援処理のうちのモード設定処理の流れの一例について説明する。
図23に示すモード設定処理では、先ず、ステップST20で、動作モード設定部42(図9参照)は、モード設定指示信号がプロセッサ20に入力されたか否かを判定する。ステップST20において、モード設定指示信号がプロセッサ20に入力された場合、判定が肯定されて、点検支援処理は、ステップST22へ移行する。ステップST20において、モード設定指示信号がプロセッサ20に入力されていない場合、判定が否定されて、モード設定処理は、ステップST32へ移行する。
ステップST22で、動作モード設定部42は、ステップST20でプロセッサ20に入力されたモード設定指示信号が第1モード設定信号か否かを判定する。ステップST22において、モード設定指示信号が第1モード設定信号である場合、判定が肯定されて、点検支援処理は、ステップST24へ移行する。ステップST22において、モード設定指示信号が第1モード設定信号でない場合、判定が否定されて、モード設定処理は、ステップST26へ移行する。
ステップST24で、動作モード設定部42は、点検支援装置10の動作モードとして、第1モードを設定する。これにより、第1モード処理が実行される。ステップST24の処理が実行された後、モード設定処理は、ステップST32へ移行する。
ステップST26で、動作モード設定部42は、ステップST20でプロセッサ20に入力されたモード設定指示信号が第2モード設定信号か否かを判定する。ステップST26において、モード設定指示信号が第2モード設定信号である場合、判定が肯定されて、点検支援処理は、ステップST28へ移行する。ステップST26において、モード設定指示信号が第2モード設定信号でない場合、判定が否定されて、モード設定処理は、ステップST30へ移行する。
ステップST28で、動作モード設定部42は、点検支援装置10の動作モードとして、第2モードを設定する。これにより、第2モード処理が実行される。ステップST28の処理が実行された後、モード設定処理は、ステップST32へ移行する。
ステップST30で、動作モード設定部42は、点検支援装置10の動作モードとして、第3モードを設定する。これにより、第3モード処理が実行される。ステップST30の処理が実行された後、モード設定処理は、ステップST32へ移行する。
ステップST32で、プロセッサ20は、モード設定処理が終了する条件(以下、「モード設定処理終了条件」と称する)が成立したか否かを判定する。モード設定処理終了条件の一例としては、点検者6からの終了指示が受付装置14によって受け付けられることにより、受付装置14からの終了指示信号がプロセッサ20に入力されたという条件等が挙げられる。ステップST32において、モード設定処理終了条件が成立していない場合は、判定が否定されて、モード設定処理は、ステップST20へ移行する。ステップST32において、モード設定処理終了条件が成立した場合は、判定が肯定されて、モード設定処理を含む点検支援処理は終了する。
次に、図24を参照しながら、点検支援処理のうちの第1モード処理の流れの一例について説明する。
図24に示す第1モード処理では、先ず、ステップST40で、第1表示制御部44A(図10参照)は、第1画像61を画面16Aに表示する。ステップST40の処理が実行された後、第1モード処理は、ステップST42へ移行する。
ステップST42で、第1画像選択部44B(図11参照)は、複数の2次元画像50のうちのいずれかの2次元画像50を選択する指示である選択指示を示す選択指示信号がプロセッサ20に入力されたか否かを判定する。ステップST42において、選択指示を示す選択指示信号がプロセッサ20に入力された場合、判定が肯定されて、第1モード処理は、ステップST44へ移行する。ステップST42において、選択指示を示す選択指示信号がプロセッサ20に入力されていない場合、判定が否定されて、第1モード処理は、ステップST52へ移行する。
ステップST44で、第1画像選択部44Bは、点検支援情報56に含まれる複数の2次元画像50から、選択指示信号により示される選択指示に対応する注目2次元画像50Aを選択する。ステップST44の処理が実行された後、第1モード処理は、ステップST46へ移行する。
ステップST46で、第1画素抽出部44C(図12参照)は、ステップST44で選択された注目2次元画像50Aに対応する撮像位置及び撮像姿勢を点検支援情報56から取得する。また、第1画素抽出部44Cは、取得した撮像位置及び撮像姿勢に基づいて注目2次元画像50Aに対応する視点を導出する。そして、第1画素抽出部44Cは、導出した視点で3次元画像52を第2画像領域82に含めるための画素を、点検支援情報56に含まれる3次元画像52から抽出する。ステップST46の処理が実行された後、第1モード処理は、ステップST48へ移行する。
ステップST48で、第1画像生成部44D(図12参照)は、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第1画像生成部44Dは、ステップST46で抽出された画素に基づいて、注目2次元画像50Aに対応する視点で第2画像領域82に全体が収まる大きさを有する3次元画像52を含む第2画像領域82を生成する。そして、第1画像生成部44D(図13参照)は、生成した第1画像領域81及び第2画像領域82を合成することにより第1画像61を生成する。ステップST48の処理が実行された後、第1モード処理は、ステップST50へ移行する。
ステップST50で、第1表示制御部44A(図13参照)は、ステップST48で生成された第1画像61を示す第1画像データをディスプレイ16に対して出力する。これにより、第1画像61がディスプレイ16の画面16Aに表示される。ステップST50の処理が実行された後、第1モード処理は、ステップST52へ移行する。
ステップST52で、プロセッサ20は、第1モード処理が終了する条件(以下、「第1モード処理終了条件」と称する)が成立したか否かを判定する。第1モード処理終了条件の一例としては、点検者6からの終了指示が受付装置14によって受け付けられることにより、受付装置14からの終了指示信号がプロセッサ20に入力されたという条件、又は、第1モードと異なる動作モードを設定する指示を示すモード設定指示信号がプロセッサ20に入力されたという条件等が挙げられる。ステップST52において、第1モード処理終了条件が成立していない場合は、判定が否定されて、第1モード処理は、ステップST42へ移行する。ステップST52において、第1モード処理終了条件が成立した場合は、判定が肯定されて、第1モード処理は終了する。
次に、図25を参照しながら、点検支援処理のうちの第2モード処理の流れの一例について説明する。
図25に示す第2モード処理では、先ず、ステップST60で、第2表示制御部46A(図14参照)は、第2画像62を画面16Aに表示する。ステップST60の処理が実行された後、第2モード処理は、ステップST62へ移行する。
ステップST62で、第2画像選択部46B(図15参照)は、複数の2次元画像50のうちのいずれかの2次元画像50を選択する指示である選択指示信号がプロセッサ20に入力されたか否かを判定する。ステップST62において、選択指示を示す選択指示信号がプロセッサ20に入力された場合、判定が肯定されて、第2モード処理は、ステップST64へ移行する。ステップST62において、選択指示を示す選択指示信号がプロセッサ20に入力されていない場合、判定が否定されて、第2モード処理は、ステップST72へ移行する。
ステップST64で、第2画像選択部46Bは、点検支援情報56に含まれる複数の2次元画像50から、選択指示信号により示される選択指示に対応する注目2次元画像50Aを選択する。ステップST64の処理が実行された後、第2モード処理は、ステップST66へ移行する。
ステップST66で、第2画素抽出部46C(図16参照)は、点検支援情報56に含まれる3次元画像52から、注目2次元画像50Aに対応付けされた注目部分54Aを抽出する。ステップST66の処理が実行された後、第2モード処理は、ステップST68へ移行する。
ステップST68で、第2画像生成部46D(図16参照)は、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第2画像生成部46Dは、ステップST66で抽出された注目部分54Aに基づいて、3次元画像52のうちの注目部分54Aを含む第3画像領域83を生成する。そして、第2画像生成部46D(図17参照)は、生成した第1画像領域81及び第3画像領域83を合成することにより第2画像62を生成する。ステップST68の処理が実行された後、第2モード処理は、ステップST70へ移行する。
ステップST70で、第2表示制御部46A(図17参照)は、ステップST68で生成された第2画像62を示す第2画像データをディスプレイ16に対して出力する。これにより、第2画像62がディスプレイ16の画面16Aに表示される。ステップST70の処理が実行された後、第2モード処理は、ステップST72へ移行する。
ステップST72で、プロセッサ20は、第2モード処理が終了する条件(以下、「第2モード処理終了条件」と称する)が成立したか否かを判定する。第2モード処理終了条件の一例としては、点検者6からの終了指示が受付装置14によって受け付けられることにより、受付装置14からの終了指示信号がプロセッサ20に入力されたという条件、又は、第2モードと異なる動作モードを設定する指示を示すモード設定指示信号がプロセッサ20に入力されたという条件等が挙げられる。ステップST72において、第2モード処理終了条件が成立していない場合は、判定が否定されて、第2モード処理は、ステップST62へ移行する。ステップST72において、第2モード処理終了条件が成立した場合は、判定が肯定されて、第2モード処理は終了する。
次に、図26を参照しながら、点検支援処理のうちの第3モード処理の流れの一例について説明する。
図26に示す第3モード処理では、先ず、ステップST80で、第3表示制御部48A(図18参照)は、第3画像63を画面16Aに表示する。ステップST80の処理が実行された後、第3モード処理は、ステップST82へ移行する。
ステップST82で、第3画像選択部48B(図19参照)は、複数の位置特定画像92のうちの注目位置特定画像92Aを選択する指示である選択指示を示す選択指示信号がプロセッサ20に入力されたか否かを判定する。ステップST82において、選択指示を示す選択指示信号がプロセッサ20に入力された場合、判定が肯定されて、第3モード処理は、ステップST84へ移行する。ステップST82において、選択指示を示す選択指示信号がプロセッサ20に入力されていない場合、判定が否定されて、第3モード処理は、ステップST90へ移行する。
ステップST84で、第3画像選択部48Bは、選択指示信号により示される選択指示に従って、点検支援情報56に含まれる複数の撮像位置から注目位置特定画像92Aに対応する注目撮像位置を選択する。そして、第3画像選択部48Bは、点検支援情報56に含まれる複数の2次元画像50から注目撮像位置に対応する注目2次元画像50Aを選択する。ステップST84の処理が実行された後、第3モード処理は、ステップST86へ移行する。
ステップST86で、第3画像生成部48C(図20参照)は、点検支援情報56に含まれる3次元画像52に基づいて、3次元画像52を含む第4画像領域84を生成する。また、第3画像生成部48Cは、点検支援情報56に含まれる撮像位置及び撮像姿勢に基づいて、複数の位置特定画像92を第4画像領域84に含める。さらに、第3画像生成部48Cは、ステップST84で選択された注目撮像位置に対応する注目位置特定画像92Aを第4画像領域84に含める。そして、第3画像生成部48C(図21参照)は、生成した第1画像領域81及び第4画像領域84を合成することにより第3画像63を生成する。ステップST86の処理が実行された後、第3モード処理は、ステップST88へ移行する。
ステップST88で、第3表示制御部48A(図21参照)は、ステップST86で生成された第3画像63を示す第3画像データをディスプレイ16に対して出力する。これにより、第3画像63がディスプレイ16の画面16Aに表示される。ステップST88の処理が実行された後、第3モード処理は、ステップST90へ移行する。
ステップST90で、プロセッサ20は、第3モード処理が終了する条件(以下、「第3モード処理終了条件」と称する)が成立したか否かを判定する。第3モード処理終了条件の一例としては、点検者6からの終了指示が受付装置14によって受け付けられることにより、受付装置14からの終了指示信号がプロセッサ20に入力されたという条件、又は、第3モードと異なる動作モードを設定する指示を示すモード設定指示信号がプロセッサ20に入力されたという条件等が挙げられる。ステップST90において、第3モード処理終了条件が成立していない場合は、判定が否定されて、第3モード処理は、ステップST82へ移行する。ステップST90において、第3モード処理終了条件が成立した場合は、判定が肯定されて、第3モード処理は終了する。なお、上述の点検支援装置10の作用として説明した点検支援方法は、本開示の技術に係る「画像処理方法」の一例である。
以上説明したように、第1実施形態に係る点検支援装置10では、プロセッサ20は、実空間上の対象物4を示す3次元画像52の生成に用いられた複数の2次元画像50であって、3次元画像52のうちの複数の部分54と対応付けられた複数の2次元画像50と3次元画像52とを対比可能な状態で画面16Aに表示する(図10、図14、及び図18参照)。また、プロセッサ20は、与えられた選択指示に従って、複数の2次元画像50から注目2次元画像50Aを選択する(図11、図15、及び図19参照)。そして、プロセッサ20は、複数の部分54のうちの注目2次元画像50Aに対応する注目部分54Aを視覚的に特定可能な状態で画面16Aに表示する(図13、図17、及び図21参照)。したがって、各2次元画像50と、対象物4のうちの各2次元画像50に対応する領域との対応関係を視覚的に把握することができる。
また、複数の2次元画像50と3次元画像52とを対比可能な状態とは、複数の2次元画像50を含む第1画像領域81と、3次元画像52を含む画像領域(すなわち、第2画像領域82、第3画像領域83、又は第4画像領域84)とが並んだ状態である(図10、図14、及び図18参照)。したがって、複数の2次元画像50と3次元画像52とを視覚的に対比することができる。
また、注目部分54Aを視覚的に特定可能な状態とは、注目部分54Aが複数の部分54のうちの残りの部分54とは区別可能な状態を含む(図17及び図21参照)。したがって、例えば、注目部分54Aが残りの部分54とは区別されていない場合に比して、注目部分54Aの視認性を高めることができる。
また、注目部分54Aを視覚的に特定可能な状態とは、注目2次元画像50Aが複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態を含む(図13、図17、及び図21参照)。したがって、例えば、注目2次元画像50Aが残りの2次元画像50とは区別されていない場合に比して、注目部分54Aの視認性を高めることができる。また、複数の2次元画像50と3次元画像52とが対比可能な状態で、かつ注目部分54Aが残りの部分54とは区別可能な状態で画面16Aに表示されている場合(図17及び図21参照)には、注目2次元画像50Aと注目部分54Aとの対応関係を視覚的に特定することができる。
また、プロセッサ20は、複数の2次元画像50を得るための撮像が行われた複数の撮像位置を特定可能な複数の位置特定画像92を3次元画像52と対比可能な状態で画面16Aに表示する(図18参照)。また、プロセッサ20は、選択指示に従って、複数の位置特定画像92から選択された注目位置特定画像92Aに対応する撮像位置を注目撮像位置として複数の撮像位置から選択する(図19参照)。そして、プロセッサ20は、注目撮像位置から撮像が行われることによって得られた2次元画像50を注目2次元画像50Aとして複数の2次元画像50から選択する(図19参照)。したがって、複数の位置特定画像92から注目位置特定画像92Aを選択することにより、複数の2次元画像50から注目2次元画像50Aを選択することができる。
また、複数の位置特定画像92と3次元画像52とを対比可能な状態とは、複数の位置特定画像92と3次元画像52とを対向させた状態を含む(図19参照)。したがって、複数の位置特定画像92と3次元画像52とが対向した状態に基づいて、3次元画像52のうちの注目部分54Aに対応する注目位置特定画像92Aを複数の位置特定画像92から選択することができる。
また、複数の2次元画像50と3次元画像52とを対比可能な状態とは、複数の2次元画像50を含む第1画像領域81と、第4画像領域84(すなわち、複数の位置特定画像92と3次元画像52とを対向させた態様を示す画像を含む画像領域)とが並んだ状態である(図18及び図19参照)。したがって、複数の2次元画像50と、3次元画像52のうちの複数の部分54と、複数の位置特定画像92とを視覚的に対比することができる。
また、注目部分54Aを視覚的に特定可能な状態とは、注目位置特定画像92Aが複数の位置特定画像92のうちの残りの位置特定画像92とは区別可能な状態を含む。したがって、例えば、注目位置特定画像92Aが残りの位置特定画像92とは区別されていない場合に比して、注目部分54Aの視認性を高めることができる。
また、点検支援装置10(図9参照)は、複数の2次元画像50と3次元画像52とを対比可能な状態で画面16Aに表示する動作モード(例えば、第1モード及び第2モード)と、複数の位置特定画像92を3次元画像52と対比可能な状態で画面16Aに表示する動作モード(すなわち、第3モード)とを有する。そして、プロセッサ20は、与えられた設定指示に従って動作モードを設定する。したがって、例えば、注目部分54Aに応じて、画面16Aを、複数の2次元画像50と3次元画像52とが対比可能な状態と、複数の位置特定画像92が3次元画像52と対比可能な状態とに選択的に切り替えることができる。
また、第1モードにおいて、3次元画像52は、注目2次元画像50Aに対応する視点で、画面16Aに表示される(図13参照)。したがって、注目2次元画像50Aに対応する視点に基づいて、複数の部分54のうちの注目2次元画像50Aに対応する注目部分54Aを視覚的に特定することができる。
なお、第1実施形態に係る点検支援装置10は、第1モード、第2モード、及び第3モードを有するが、第1モード、第2モード、及び第3モードのうちのいずれかの動作モードは省かれてもよい。また、第1実施形態に係る点検支援装置10は、第1モード、第2モード、及び第3モードのうちの1つの動作モードのみを有していてもよい。
[第2実施形態]
次に、本開示の第2実施形態について説明する。
次に、本開示の第2実施形態について説明する。
第2実施形態において、点検支援装置10は、第1実施形態に対して、次のように構成が変更されている。
一例として図27に示すように、プロセッサ20は、第4表示制御部94Aとして動作する。第4表示制御部94Aは、第4画像64を画面16Aに表示する。第4画像64は、第1画像領域81と、第5画像領域85とを含む。一例として、第1画像領域81と第5画像領域85とは、第5画像の左右方向に並んだ状態で画面16Aに表示される。第1画像領域81は、第1画像61(図10参照)の第1画像領域81と同様である。第5画像領域85は、3次元画像52を含んでいる。
第4表示制御部94Aは、点検支援情報56に含まれる複数の2次元画像50に基づいて、第1画像領域81に複数の2次元画像50を含める。また、第4表示制御部94Aは、点検支援情報56に含まれる3次元画像52に基づいて、第5画像領域85に3次元画像52を含める。
第5画像領域85には、3次元画像52がレンダリングされることにより2次元画像化された状態で含まれる。例えば、点検者6が3次元画像52の大きさを変更する指示を受付装置14(図9参照)に対して付与することにより、3次元画像52の大きさが変更される。また、例えば、点検者6が3次元画像52を回転させる指示を受付装置14に対して付与することにより、3次元画像52が回転する。
複数の2次元画像50を含む第1画像領域81と、3次元画像52を含む第5画像領域85とが並んだ状態で画面16Aに表示されることにより、複数の2次元画像50と3次元画像52とが対比可能な状態になる。
なお、図27では、第1画像領域81と第5画像領域85とが第4画像64の左右方向に並んだ状態で画面16Aに表示される例が示されているが、例えば、第1画像領域81と第5画像領域85とが第4画像64の上下方向に並んだ状態で画面16Aに表示されてもよく、また、第1画像領域81が第5画像領域85の一部に組み込まれた状態で第1画像領域81と第5画像領域85とが画面16Aに表示されてもよい。
第1画像領域81は、本開示の技術に係る「第1領域」の一例である。第5画像領域85は、本開示の技術に係る「第2領域」の一例である。
一例として図28に示すように、第4画像64が画面16Aに表示されている状態で、第5画像領域85に含まれる3次元画像52のうちのいずれかの部分54を選択する指示である選択指示が受付装置14によって受け付けられた場合、受付装置14は、選択指示を示す選択指示信号をプロセッサ20に対して出力する。
プロセッサ20は、第4画像選択部94Bとして動作する。第4画像選択部94Bは、選択指示信号がプロセッサ20に入力された場合、選択指示信号により示される選択指示に従って、点検支援情報56に含まれる複数の部分54から選択指示に対応する部分54(すなわち、注目部分54A)を選択する。また、第4画像選択部94Bは、点検支援情報56に含まれる複数の2次元画像50から注目部分54Aに対応する2次元画像50(すなわち、注目2次元画像50A)を選択する。
一例として図29に示すように、プロセッサ20は、第4画素抽出部94C及び第4画像生成部94Dとして動作する。第4画素抽出部94Cは、点検支援情報56に含まれる3次元画像52から、注目2次元画像50Aに対応する注目部分54Aを抽出する。
第4画像生成部94Dは、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第4画像生成部94Dは、点検支援情報56に含まれる3次元画像52に基づいて、3次元画像52を含む第5画像領域85を生成する。さらに、第4画像生成部94Dは、第4画素抽出部94Cによって抽出された注目部分54Aを残りの部分54とは区別可能な状態で第5画像領域85に含める。例えば、第4画像生成部94Dは、注目部分54Aを残りの部分54と異なる色で表された態様で第5画像領域85に含める。
一例として図30に示すように、第4画像生成部94Dは、生成した第1画像領域81及び第5画像領域85を合成することにより第4画像64を生成する。
第4表示制御部94Aは、第4画像生成部94Dによって生成された第4画像64を示す第4画像データをディスプレイ16に対して出力する。これにより、第4画像64がディスプレイ16の画面16Aに表示される。具体的には、複数の2次元画像50のうちの既定数の2次元画像50が第1画像領域81に含められた状態で画面16Aに表示され、かつ注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示される。注目2次元画像50Aが枠90で囲われた状態で画面16Aに表示されることにより、注目2次元画像50Aが複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態になる。
また、3次元画像52に含まれる注目部分54Aは、残りの部分54とは区別可能な状態で画面16Aに表示される。注目部分54Aが残りの部分54とは区別可能な状態で画面16Aに表示されることにより、3次元画像52のうちの注目部分54Aが視覚的に特定可能な状態になる。
なお、図30に示す例では、注目部分54Aが残りの部分54とは異なる色で表示される。しかしながら、注目部分54Aは、他の態様により残りの部分54とは区別可能な状態で画面16Aに表示されてもよい。例えば、注目部分54Aが枠で囲われた態様、注目部分54Aに模様が付された態様、又は、注目部分54Aが残りの部分54よりも輝度が高められた態様等で画面16Aに表示されてもよい。このような例によっても、注目部分54Aが残りの部分54とは区別可能な状態になる。
次に、第2実施形態に係る点検支援装置10の作用について図31を参照しながら説明する。図31には、第2実施形態に係る点検支援処理の流れの一例が示されている。
図31に示す点検支援処理では、先ず、ステップST100で、第4表示制御部94A(図27参照)は、第4画像64を画面16Aに表示する。ステップST100の処理が実行された後、点検支援処理は、ステップST102へ移行する。
ステップST102で、第4画像選択部94B(図28参照)は、3次元画像52のうちのいずれかの部分54を選択する指示である選択指示を示す選択指示信号がプロセッサ20に入力されたか否かを判定する。ステップST102において、選択指示を示す選択指示信号がプロセッサ20に入力された場合、判定が肯定されて、点検支援処理は、ステップST104へ移行する。ステップST102において、選択指示を示す選択指示信号がプロセッサ20に入力されていない場合、判定が否定されて、点検支援処理は、ステップST112へ移行する。
ステップST104で、第4画像選択部94Bは、点検支援情報56に含まれる複数の部分54から、選択指示信号により示される選択指示に対応する注目部分54Aを選択する。また、第4画像選択部94Bは、点検支援情報56に含まれる複数の2次元画像50から注目部分54Aに対応する注目2次元画像50Aを選択する。ステップST104の処理が実行された後、点検支援処理は、ステップST106へ移行する。
ステップST106で、第4画素抽出部94C(図29参照)は、点検支援情報56に含まれる3次元画像52から、注目2次元画像50Aに対応する注目部分54Aを抽出する。ステップST106の処理が実行された後、点検支援処理は、ステップST108へ移行する。
ステップST108で、第4画像生成部94D(図30参照)は、点検支援情報56に含まれる複数の2次元画像50のうちの既定数の2次元画像50を含み、かつ注目2次元画像50Aが枠90で囲われた態様の第1画像領域81を生成する。また、第4画像生成部94Dは、点検支援情報56に含まれる3次元画像52に基づいて、3次元画像52を含む第5画像領域85を生成する。さらに、第4画像生成部94Dは、ステップST106で抽出された注目部分54Aを残りの部分54とは区別可能な状態で第5画像領域85に含める。そして、第4画像生成部94Dは、生成した第1画像領域81及び第5画像領域85を合成することにより第4画像64を生成する。ステップST108の処理が実行された後、点検支援処理は、ステップST110へ移行する。
ステップST110で、第4表示制御部94A(図30参照)は、ステップST108で生成された第4画像64を示す第4画像データをディスプレイ16に対して出力する。これにより、第4画像64がディスプレイ16の画面16Aに表示される。ステップST110の処理が実行された後、点検支援処理は、ステップST112へ移行する。
ステップST112で、プロセッサ20は、点検支援処理が終了する条件(以下、「終了条件」と称する)が成立したか否かを判定する。終了条件の一例としては、点検者6からの終了指示が受付装置14によって受け付けられることにより、受付装置14からの終了指示信号がプロセッサ20に入力されたという条件等が挙げられる。ステップST112において、終了条件が成立していない場合は、判定が否定されて、点検支援処理は、ステップST102へ移行する。ステップST112において、終了条件が成立した場合は、判定が肯定されて、点検支援処理は終了する。
以上説明したように、第2実施形態に係る点検支援装置10では、プロセッサ20は、実空間上の対象物4を示す3次元画像52の生成に用いられた複数の2次元画像50であって、3次元画像52のうちの複数の部分54と対応付けられた複数の2次元画像50と3次元画像52とを対比可能な状態で画面16Aに表示する(図27参照)。また、プロセッサ20は、与えられた選択指示に従って、複数の部分54から注目部分54Aを選択し、複数の2次元画像50のうちの注目部分54Aに対応する注目2次元画像50Aを選択する(図28参照)。そして、プロセッサ20は、注目2次元画像50Aを複数の2次元画像50のうちの残りの2次元画像50とは区別可能な状態で画面16Aに表示する。したがって、各2次元画像50と、対象物4のうちの各2次元画像50に対応する領域との対応関係を視覚的に把握することができる。
また、プロセッサ20は、注目部分54Aを視覚的に特定可能な状態で画面16Aに表示する(図30参照)。したがって、注目2次元画像50Aと注目部分54Aとの対応関係を視覚的に特定することができる。
また、注目部分54Aを視覚的に特定可能な状態とは、注目部分54Aが複数の部分54のうちの残りの部分54とは区別可能な状態を含む(図30参照)。したがって、例えば、注目部分54Aが残りの部分54とは区別されていない場合に比して、注目部分54Aの視認性を高めることができる。
なお、第2実施形態に係る点検支援装置10の動作モードは、第4モードとして第1実施形態に係る点検支援装置10の動作モードに追加されてもよい。
また、上記実施形態では、プロセッサ20を例示したが、プロセッサ20に代えて、又は、プロセッサ20と共に、他の少なくとも1つのCPU、少なくとも1つのGPU、及び/又は、少なくとも1つのTPUを用いるようにしてもよい。
また、上記実施形態では、ストレージ22に点検支援情報生成プログラム30及び点検支援プログラム40が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、点検支援情報生成プログラム30及び/又は点検支援プログラム40がSSD又はUSBメモリなどの可搬型の非一時的なコンピュータ読取可能な記憶媒体(以下、単に「非一時的記憶媒体」と称する)に記憶されていてもよい。非一時的記憶媒体に記憶されている点検支援情報生成プログラム30及び/又は点検支援プログラム40は、点検支援装置10のコンピュータ12にインストールされてもよい。
また、ネットワークを介して点検支援装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置に点検支援情報生成プログラム30及び/又は点検支援プログラム40を記憶させておき、点検支援装置10の要求に応じて点検支援情報生成プログラム30及び/又は点検支援プログラム40がダウンロードされ、コンピュータ12にインストールされてもよい。
また、点検支援装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はストレージ22に点検支援情報生成プログラム30及び/又は点検支援プログラム40の全てを記憶させておく必要はなく、点検支援情報生成プログラム30及び/又は点検支援プログラム40の一部を記憶させておいてもよい。
また、点検支援装置10には、コンピュータ12が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ12が点検支援装置10の外部に設けられるようにしてもよい。
また、上記実施形態では、プロセッサ20、ストレージ22、及びRAM24を含むコンピュータ12が例示されているが、本開示の技術はこれに限定されず、コンピュータ12に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ12に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
また、上記実施形態で説明した各種処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで各種処理を実行する。
各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の視線検出処理はあくまでも一例である。したがって、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (14)
- プロセッサを備え、
前記プロセッサは、
実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、前記3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と前記3次元画像とを対比可能な状態で画面に表示し、
与えられた選択指示に従って、前記複数の2次元画像から注目2次元画像を選択し、
前記複数の部分のうちの前記注目2次元画像に対応する注目部分を視覚的に特定可能な状態で前記画面に表示する
画像処理装置。 - 前記複数の2次元画像と前記3次元画像とを対比可能な状態とは、前記複数の2次元画像を含む第1領域と前記3次元画像を含む第2領域とが並んだ状態である
請求項1に記載の画像処理装置。 - 前記注目部分を視覚的に特定可能な状態とは、前記注目部分が前記複数の部分のうちの残りの部分とは区別可能な状態を含む
請求項1又は請求項2に記載の画像処理装置。 - 前記注目部分を視覚的に特定可能な状態とは、前記注目2次元画像が前記複数の2次元画像のうちの残りの2次元画像とは区別可能な状態を含む
請求項1から請求項3の何れか一項に記載の画像処理装置。 - 前記プロセッサは、
前記複数の2次元画像を得るための撮像が行われた複数の撮像位置を特定可能な複数の位置特定画像を前記3次元画像と対比可能な状態で前記画面に表示し、
前記選択指示に従って、前記複数の位置特定画像から選択された注目位置特定画像に対応する撮像位置を注目撮像位置として前記複数の撮像位置から選択し、
前記注目撮像位置から前記撮像が行われることによって得られた2次元画像を前記注目2次元画像として前記複数の2次元画像から選択する
請求項1から請求項4の何れか一項に記載の画像処理装置。 - 前記複数の位置特定画像と前記3次元画像とを対比可能な状態とは、前記複数の位置特定画像と前記3次元画像とを対向させた状態を含む
請求項5に記載の画像処理装置。 - 前記複数の2次元画像と前記3次元画像とを対比可能な状態とは、前記複数の2次元画像を含む第3領域と、前記複数の位置特定画像と前記3次元画像とを対向させた態様を示す画像を含む第4領域とが並んだ状態である
請求項5又は請求項6に記載の画像処理装置。 - 前記注目部分を視覚的に特定可能な状態とは、前記注目位置特定画像が前記複数の位置特定画像のうちの残りの位置特定画像とは区別可能な状態を含む
請求項5から請求項7の何れか一項に記載の画像処理装置。 - 前記画像処理装置は、前記複数の2次元画像と前記3次元画像とを対比可能な状態で前記画面に表示する第1動作モードと、前記複数の位置特定画像を前記3次元画像と対比可能な状態で前記画面に表示する第2動作モードとを有し、
前記プロセッサは、与えられた設定指示に従って、前記第1動作モード及び前記第2動作モードの何れかの動作モードを設定する
請求項5から請求項8の何れか一項に記載の画像処理装置。 - 前記3次元画像は、前記注目2次元画像に対応する視点で、前記画面に表示される
請求項5から請求項9の何れか一項に記載の画像処理装置。 - プロセッサを備え、
前記プロセッサは、
実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、前記3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と前記3次元画像とを対比可能な状態で画面に表示し、
与えられた選択指示に従って、前記複数の部分から注目部分を選択し、
前記複数の2次元画像のうちの前記注目部分に対応する注目2次元画像を選択し、
前記注目2次元画像を前記複数の2次元画像のうちの残りの2次元画像とは区別可能な状態で前記画面に表示する
画像処理装置。 - 前記プロセッサは、
前記複数の2次元画像を得るための撮像が行われた複数の撮像位置を特定可能な複数の位置特定画像を前記3次元画像と対比可能な状態で前記画面に表示し、
前記選択指示に従って、前記複数の位置特定画像から注目位置特定画像を選択し、
前記注目位置特定画像から特定される前記撮像位置から前記撮像が行われることによって得られた前記2次元画像を前記注目2次元画像として前記複数の2次元画像から選択する
請求項11に記載の画像処理装置。 - 実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、前記3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と前記3次元画像とを対比可能な状態で画面に表示すること、
与えられた選択指示に従って、前記複数の2次元画像から注目2次元画像を選択すること、及び、
前記複数の部分のうちの前記注目2次元画像に対応する注目部分を視覚的に特定可能な状態で前記画面に表示すること
を備える画像処理方法。 - 実空間上の対象物を示す3次元画像の生成に用いられた複数の2次元画像であって、前記3次元画像のうちの複数の部分と対応付けられた複数の2次元画像と前記3次元画像とを対比可能な状態で画面に表示すること、
与えられた選択指示に従って、前記複数の2次元画像から注目2次元画像を選択すること、及び、
前記複数の部分のうちの前記注目2次元画像に対応する注目部分を視覚的に特定可能な状態で前記画面に表示すること
を含む処理をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202280093919.2A CN118901086A (zh) | 2022-03-29 | 2022-11-09 | 图像处理装置、图像处理方法及程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022-053388 | 2022-03-29 | ||
JP2022053388 | 2022-03-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023188510A1 true WO2023188510A1 (ja) | 2023-10-05 |
Family
ID=88200676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/041770 WO2023188510A1 (ja) | 2022-03-29 | 2022-11-09 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN118901086A (ja) |
WO (1) | WO2023188510A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01274744A (ja) * | 1988-04-27 | 1989-11-02 | Toshiba Corp | 三次元手術支援装置 |
JP2004024795A (ja) * | 2002-06-25 | 2004-01-29 | Terarikon Inc | 医用画像複合観察装置 |
JP2017168077A (ja) * | 2016-03-09 | 2017-09-21 | 株式会社リコー | 画像処理方法、表示装置および点検システム |
WO2020003548A1 (ja) * | 2018-06-29 | 2020-01-02 | 株式会社日立システムズ | 画像表示システムおよび方法 |
JP2020022157A (ja) * | 2018-07-18 | 2020-02-06 | エヌ・ティ・ティ・コムウェア株式会社 | 点検システム及び点検方法 |
US20210128079A1 (en) * | 2019-10-30 | 2021-05-06 | Nikon Corporation | Image display method, storage medium, and image display device |
-
2022
- 2022-11-09 CN CN202280093919.2A patent/CN118901086A/zh active Pending
- 2022-11-09 WO PCT/JP2022/041770 patent/WO2023188510A1/ja unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01274744A (ja) * | 1988-04-27 | 1989-11-02 | Toshiba Corp | 三次元手術支援装置 |
JP2004024795A (ja) * | 2002-06-25 | 2004-01-29 | Terarikon Inc | 医用画像複合観察装置 |
JP2017168077A (ja) * | 2016-03-09 | 2017-09-21 | 株式会社リコー | 画像処理方法、表示装置および点検システム |
WO2020003548A1 (ja) * | 2018-06-29 | 2020-01-02 | 株式会社日立システムズ | 画像表示システムおよび方法 |
JP2020022157A (ja) * | 2018-07-18 | 2020-02-06 | エヌ・ティ・ティ・コムウェア株式会社 | 点検システム及び点検方法 |
US20210128079A1 (en) * | 2019-10-30 | 2021-05-06 | Nikon Corporation | Image display method, storage medium, and image display device |
Also Published As
Publication number | Publication date |
---|---|
CN118901086A (zh) | 2024-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108460815B (zh) | 地图道路要素编辑方法和装置 | |
CN106993181B (zh) | 多vr/ar设备协同系统及协同方法 | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
KR101212636B1 (ko) | 증강 현실에서 위치 정보를 표시하는 방법 및 장치 | |
CN108932051A (zh) | 增强现实图像处理方法、装置及存储介质 | |
US20110026772A1 (en) | Method of using laser scanned point clouds to create selective compression masks | |
CA2678156A1 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
JPWO2009119110A1 (ja) | 死角表示装置 | |
KR101181967B1 (ko) | 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템 | |
CN112041638A (zh) | 经由增强现实用于乘车共享和递送的接载和送达地点识别 | |
JP2005283221A (ja) | 測量データ処理システム、電子地図を格納する記憶媒体及び電子地図表示装置 | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
JP2017211811A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
JP7335335B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6521352B2 (ja) | 情報提示システム及び端末 | |
JP5235127B2 (ja) | 遠隔操作システムおよび遠隔操作装置 | |
JP2012141779A (ja) | 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム | |
JP4099776B2 (ja) | 3次元モデル作成装置、3次元モデル作成方法および3次元モデル作成プログラム | |
WO2023188510A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN114332648A (zh) | 一种位置标识方法及电子设备 | |
EP4123106A1 (en) | Image processing device, image processing method, and image processing program | |
WO2023188511A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20220406018A1 (en) | Three-dimensional display device, three-dimensional display method, and three-dimensional display program | |
KR20170021689A (ko) | 증강현실을 이용한 해양 구조물 설계/생산 지원 시스템 및 방법 | |
JPH1186035A (ja) | 距離参照型景観ラベリング装置およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22933886 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2024511190 Country of ref document: JP Kind code of ref document: A |