WO2022209363A1 - 情報処理装置、情報処理システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2022209363A1
WO2022209363A1 PCT/JP2022/005750 JP2022005750W WO2022209363A1 WO 2022209363 A1 WO2022209363 A1 WO 2022209363A1 JP 2022005750 W JP2022005750 W JP 2022005750W WO 2022209363 A1 WO2022209363 A1 WO 2022209363A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
area
information processing
imaging device
Prior art date
Application number
PCT/JP2022/005750
Other languages
English (en)
French (fr)
Inventor
絵理奈 小椋
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023510616A priority Critical patent/JPWO2022209363A1/ja
Priority to EP22779590.3A priority patent/EP4319133A1/en
Publication of WO2022209363A1 publication Critical patent/WO2022209363A1/ja
Priority to US18/475,220 priority patent/US20240022810A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/02Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with scanning movement of lens or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the technology of the present disclosure relates to an information processing device, an information processing system, an information processing method, and a program.
  • Japanese Patent Application Laid-Open No. 2012-029245 discloses a first imaging unit that shoots a subject and outputs a signal according to the shooting result, and a camera that shoots the subject at a wider angle than the first imaging unit and shoots according to the shooting result.
  • a second imaging unit that outputs a signal, and when the specific subject included in the subject is out of the imaging range of the first imaging unit, the imaging range of the first imaging unit and the specific subject are determined based on the output signal of the second imaging unit.
  • a notification information output unit that outputs notification information corresponding to a relationship with a position.
  • Japanese Patent Application Laid-Open No. 2013-013050 discloses a first imaging optical system that acquires a first subject image and a second subject image on the telephoto side of the first subject image acquired by the first imaging optical system.
  • a second imaging optical system that can be acquired; a first imaging unit that converts a video signal of a first subject image acquired by the first imaging optical system into first image data; a second imaging section for converting a video signal of a second subject image into second image data; and a display section for displaying the first subject image based on the first image data and the second subject image based on the second image data.
  • a control section for displaying the imaging range of the second subject image in a display frame on the first subject image displayed on the display section.
  • Japanese Patent Application Laid-Open No. 2009-232276 discloses an imaging apparatus that includes an imaging unit that captures an image of a subject, and that continuously performs imaging processing so that adjacent imaging ranges partially overlap to generate a plurality of captured images.
  • a display unit for continuously displaying the subject image captured by the imaging unit as a live view image; a motion detection unit for detecting movement of the live view image in at least one direction; a moving mark that moves according to the movement detected by the motion detecting unit on the live view image after the start instruction given by the instructing unit; a display control unit for controlling display of a movement target mark indicating a predetermined area of the movement target mark; a determination unit that determines whether or not shooting is possible based on time conversion of physical quantities, and if the determination unit determines that shooting is possible, the start instructed by the instruction unit is permitted and shooting processing is performed.
  • An image pickup device is disclosed.
  • One embodiment according to the technology of the present disclosure allows the imaging device to perform imaging at better timing than when the timing determined without using either the distance measurement result or the captured image is reported as the imaging timing.
  • An information processing device, an information processing system, an information processing method, and a program are provided.
  • a first aspect of the technology of the present disclosure includes a processor and a memory connected to or built into the processor, and the processor captures an imaging scene with an imaging device having a distance measurement function. Acquire a live view image and a pre-captured image based on the main captured image obtained by performing the main capturing by the imaging device, and obtain the result of distance measurement by the ranging function and the image captured by the imaging device setting an imaging enable signal indicating that it is determined that the main imaging can be performed based on at least one of the captured images, and displaying a screen including the live view area and the guide view area on the first display; screen data is output, the live view image is displayed in the live view area, the guide view area includes the wide view area and the guide area, the pre-captured image is displayed in the wide view area, and the guide area is , guide information is displayed that can identify an image area corresponding to the live view image displayed in the live view area within the wide view area, and when the processor sets the imaging enable signal, main imaging can be performed.
  • the information processing apparatus outputs a main imaging instruction signal indicating an instruction to perform main imaging to the imaging apparatus.
  • a second aspect of the technology of the present disclosure is the information processing according to the first aspect, wherein the pre-captured image is an image showing a wider scene than the captured scene shown by the live-view image displayed in the live-view area. It is a device.
  • a third aspect of the technology of the present disclosure is the information processing apparatus according to the second aspect, wherein the pre-captured image is a composite image obtained by panoramaizing a plurality of main captured images.
  • a fourth aspect of the technology of the present disclosure is the information processing apparatus according to the third aspect, in which the screen includes a synthesized image confirmation view area obtained by enlarging the wide view area together with the synthesized image.
  • a fifth aspect of the technology of the present disclosure is the information processing apparatus according to the fourth aspect, in which the screen includes the real space area of the imaging region indicated by the synthesized image.
  • a sixth aspect of the technology of the present disclosure is any one of the first aspect to the fifth aspect, wherein the processor outputs a distance measurement result acquisition instruction signal that instructs the imaging device to acquire the distance measurement result. or an information processing apparatus according to one aspect.
  • the distance measurement result acquisition instruction signal indicates to the imaging device the distance between the imaging device and the first imaging target to be imaged by the imaging device as one of the ranging results.
  • the information processing apparatus which includes a signal indicating an instruction to measure by
  • An eighth aspect of the technology of the present disclosure is that the imaging enable signal forms an angle between the first imaging target plane imaged by the imaging device and a default plane included in the imaging device.
  • the information processing apparatus according to any one of the first to seventh aspects, which is generated on the condition that is a facing angle.
  • a ninth aspect of the technology of the present disclosure is the information processing device according to the eighth aspect, wherein the imaging device has an image sensor, and the default plane is a plane corresponding to the imaging plane of the image sensor.
  • the image-capable signal is generated on the condition that the overlap ratio between the pre-captured image and the main captured image or the live-view image is within a predetermined range.
  • An eleventh aspect of the technology of the present disclosure is the information processing device according to any one of the first to tenth aspects, in which the processor acquires information based on the distance measurement result.
  • a twelfth aspect of the technology of the present disclosure is the eleventh aspect, wherein the information based on the distance measurement result includes information indicating whether or not the second imaging target plane imaged by the imaging device and the imaging device face each other. It is an information processing apparatus according to the aspect of .
  • a thirteenth aspect of the technology of the present disclosure is the eleventh aspect or the thirteenth aspect, wherein the information based on the distance measurement result includes information based on the distance between the imaging device and the second imaging target imaged by the imaging device.
  • 12 is an information processing apparatus according to 12 aspects.
  • a fourteenth aspect of the technology of the present disclosure is any of the eleventh to thirteenth aspects, wherein the processor outputs distance measurement result data for displaying information based on the distance measurement result on the second display.
  • An information processing apparatus according to any one aspect.
  • a fifteenth aspect of the technology of the present disclosure is the information processing apparatus according to the fourteenth aspect, in which information based on the distance measurement result is displayed in a message format on the second display.
  • the imaging device has a release button in a locked state, and when the processor sets the imaging enable signal, the imaging device is locked for releasing the locked state.
  • the information processing device according to any one of the first to fifteenth aspects, which outputs a release instruction signal.
  • a seventeenth aspect of the technology of the present disclosure is information processing including an information processing device according to any one of the first to sixteenth aspects, and a receiving device that receives an instruction given to a processor. System.
  • An eighteenth aspect of the technology of the present disclosure is the information processing system according to the seventeenth aspect, further including an imaging device.
  • a nineteenth aspect according to the technology of the present disclosure is a live view image obtained by capturing an image of an imaging scene with an imaging device having a distance measurement function, and an image obtained by performing actual imaging with the imaging device. It is determined that the main imaging can be performed based on at least one of acquiring a pre-captured image based on the main captured image, the distance measurement result by the distance measurement function, and the captured image obtained by capturing the image with the imaging device.
  • the live view area includes: A live-view image is displayed, the guide-view area includes a wide-view area and a guide area, the wide-view area displays a pre-captured image, and the guide area displays the live-view image displayed in the live-view area.
  • Guide information that can specify the image area corresponding to is displayed in the wide view area, and when the imaging possible signal is set, the imaging instruction reception area in a display mode that notifies that the main imaging can be performed
  • An information processing method including outputting a main imaging instruction signal indicating a
  • a twentieth aspect of the technology of the present disclosure is a program for causing a computer to execute processing, wherein the processing is a live view obtained by imaging an imaging scene with an imaging device having a distance measurement function. Acquisition of an image, a pre-captured image based on the main captured image obtained by performing main imaging by the imaging device, the result of distance measurement by the distance measurement function, and the imaging obtained by imaging by the imaging device Setting an imaging enable signal indicating that it is determined that the main imaging can be performed based on at least one of the images, and displaying a screen including the live view area and the guide view area on the first display.
  • the live view image is displayed in the live view area
  • the guide view area includes the wide view area and the guide area
  • the pre-captured image is displayed in the wide view area.
  • guide information that can identify an image area corresponding to the live view image displayed in the live view area within the wide view area is displayed.
  • the program includes outputting a main imaging instruction signal that instructs an imaging device to perform main imaging with respect to an imaging scene indicated by a view image.
  • FIG. 1 is a schematic configuration diagram showing an example of the overall configuration of an inspection system;
  • FIG. 1 is a schematic configuration diagram showing an example of an electrical hardware configuration of an information processing apparatus;
  • FIG. 1 is a schematic configuration diagram showing an example of an electrical hardware configuration of a tablet terminal;
  • FIG. 1 is a schematic configuration diagram showing an example of a hardware configuration of an optical system and an electrical system of an imaging device;
  • FIG. 1 is a schematic configuration diagram showing an example of the hardware configuration of an electrical system of an imaging device;
  • FIG. FIG. 2 is a schematic configuration diagram showing an example of the hardware configuration of a two-axis turning mechanism;
  • 1 is a schematic configuration diagram showing an example of a hardware configuration of a vehicle;
  • FIG. 1 is a schematic configuration diagram showing an example of an electrical hardware configuration of an information processing apparatus;
  • FIG. 1 is a schematic configuration diagram showing an example of an electrical hardware configuration of a tablet terminal;
  • FIG. 1 is a schematic configuration diagram showing an example of a hardware configuration of an optical
  • FIG. 2 is a block diagram showing an example of main functions of a processor of an information processing device
  • FIG. 3 is a block diagram showing an example of functions of a main part of a processor of the imaging device
  • FIG. 3 is a block diagram showing an example of main functions of a processor of a tablet terminal
  • FIG. 4 is a schematic screen diagram showing an example of various screens displayed on the touch panel display of the tablet terminal
  • FIG. 10 is a conceptual diagram showing an example of processing contents for displaying a startup setting screen and processing contents using the startup setting screen
  • FIG. 10 is a conceptual diagram showing an example of processing contents using a startup setting screen
  • FIG. 10 is a conceptual diagram showing an example of processing contents using a startup setting screen
  • FIG. 4 is a conceptual diagram showing an example of the flow of distance measurement instruction signals;
  • FIG. 10 is a conceptual diagram showing an example of processing contents using distance measurement results;
  • FIG. 4 is a conceptual diagram showing an example of the flow of a live-view imaging instruction signal;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to live view image and imaging start screen data; It is a schematic screen diagram which shows an example of an imaging start screen.
  • FIG. 4 is a schematic perspective view showing an example of the structure of an imaging start screen;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to imaging start screen data;
  • FIG. 10 is a conceptual diagram showing an example of processing contents when an instruction receiving area included in the imaging start screen is tapped;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to an imaging condition confirmation signal;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to movement guidance screen data;
  • FIG. 11 is a schematic screen diagram showing an example of a movement guidance screen;
  • FIG. 10 is a conceptual diagram showing an example of a mode in which an instruction is given to an instruction receiving area included in the movement guidance screen;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to zoom guide screen data;
  • FIG. 10 is a schematic screen diagram showing an example of a telephoto zoom guidance screen;
  • FIG. 4 is a schematic screen diagram showing an example of a wide-angle zoom guide screen;
  • FIG. 4 is a conceptual diagram showing an example of a mode in which an instruction is given to an instruction receiving area included in a zoom guidance screen
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to tilt adjustment guidance screen data
  • It is a schematic screen diagram which shows an example of a tilt adjustment guidance screen.
  • FIG. 11 is a conceptual diagram showing an example of a mode in which an instruction is given to an instruction receiving area included in the tilt adjustment guidance screen
  • FIG. 10 is a conceptual diagram showing an example of processing contents until an adjustment result signal is obtained
  • FIG. 10 is a conceptual diagram showing an example of processing contents when the driving system and the imaging device are controlled according to the adjustment result signal
  • FIG. 10 is a conceptual diagram showing an example of processing contents for setting an image-capable signal;
  • FIG. 10 is a conceptual diagram showing an example of processing contents related to imaging permission screen data; It is a schematic screen diagram which shows an example of an imaging permission screen.
  • FIG. 10 is a conceptual diagram showing an example of processing contents for displaying an imaging permission screen on a touch panel display;
  • FIG. 4 is a conceptual diagram showing an example of processing contents until a main imaging instruction signal is obtained;
  • FIG. 4 is a conceptual diagram showing an example of the flow of a main imaging instruction signal;
  • FIG. 4 is a conceptual diagram showing an example of processing contents until screen data containing a synthesized image is obtained;
  • FIG. 45A is a continuation of the flow chart shown in FIG. 45B.
  • 45B is a continuation of the flow chart shown in FIG. 45C.
  • 6 is a flow chart showing an example of the flow of imaging device side processing.
  • FIG. 45A is a continuation of the flow chart
  • FIG. 4 is a conceptual diagram showing an example of processing contents until screen data including a real space area included in the screen is obtained.
  • FIG. 11 is a schematic screen diagram showing an example of a synthesis confirmation screen displaying a real space area;
  • FIG. 4 is a conceptual diagram showing an example of processing contents until screen data in which distance measurement result data is included in the screen is obtained.
  • FIG. 10 is a conceptual diagram showing an example of the contents of processing performed to release the locked state of the release button; 4 is a conceptual diagram showing an example of a mode in which an inspection support processing program stored in a storage medium is installed in the computer of the information processing device 30;
  • FIG. 11 is a schematic screen diagram showing an example of a synthesis confirmation screen displaying a real space area
  • FIG. 4 is a conceptual diagram showing an example of processing contents until screen data in which distance measurement result data is included in the screen is obtained.
  • FIG. 10 is a conceptual diagram showing an example of the contents of processing performed to release the locked state of the release button;
  • 4 is
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU is an abbreviation for "Graphics Processing Unit”.
  • NVM is an abbreviation for "Non-volatile memory”.
  • RAM is an abbreviation for "Random Access Memory”.
  • IC is an abbreviation for "Integrated Circuit”.
  • ASIC is an abbreviation for "Application Specific Integrated Circuit”.
  • PLD is an abbreviation for "Programmable Logic Device”.
  • FPGA is an abbreviation for "Field-Programmable Gate Array”.
  • SoC is an abbreviation for "System-on-a-chip.”
  • SSD is an abbreviation for "Solid State Drive”.
  • USB is an abbreviation for "Universal Serial Bus”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • EEPROM is an abbreviation for "Electrically Erasable and Programmable Read Only Memory”.
  • EL is an abbreviation for "Electro-Luminescence”.
  • I/F is an abbreviation for "Interface”.
  • UI is an abbreviation for "User Interface”.
  • fps is an abbreviation for "frame per second”.
  • MF is an abbreviation for "Manual Focus”.
  • AF is an abbreviation for "Auto Focus”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • LAN is an abbreviation for "Local Area Network”.
  • WAN is an abbreviation for "Wide Area Network”.
  • CNN is an abbreviation for "Convolutional Neural Network”.
  • AI is an abbreviation for “Artificial Intelligence”.
  • TOF is an abbreviation for “Time Of Flight”.
  • 3D is an abbreviation for "3 Dimensions”.
  • 5G is an abbreviation for “5th Generation”.
  • match means, in addition to perfect match, an error that is generally allowed in the technical field to which the technology of the present disclosure belongs, and does not go against the spirit of the technology of the present disclosure. It refers to a match in terms of meaning including errors in
  • the inspection system 10 includes an information processing system 12 and a drive system 14 and inspects an inspection object 16 .
  • Inspection refers to inspection of the state of the inspection object 16, for example.
  • the inspection system 10 inspects whether or not the inspection object 16 is damaged and/or the extent of the damage.
  • the inspection object 16 is an example of the “imaging scene” according to the technology of the present disclosure.
  • the drive system 14 includes a biaxial turning device 18 , a vehicle 20 and a lifting device 22 .
  • Each of the two-axis turning device 18, the vehicle 20, and the lifting device 22 has a communication function.
  • the two-axis swing device 18 , vehicle 20 , and elevator device 22 are communicatively connected to information processing system 12 and operate under the control of information processing system 12 .
  • a vehicle 24 with a gondola is shown.
  • the gondola-equipped vehicle 24 has a vehicle 20 , a lifting device 22 and a gondola 26 .
  • the vehicle 20 is, for example, a four-wheel vehicle with an electric motor having four wheels 20A.
  • the vehicle 20 runs according to instructions given from the outside. Running refers to forward movement, backward movement, and meandering, for example.
  • the lifting device 22 is, for example, a pantograph lift.
  • the lifting device 22 has a pantograph mechanism 28 .
  • the pantograph mechanism 28 is a mechanism that expands and contracts along the vertical direction.
  • a pantograph mechanism 28 is attached to the upper portion of the vehicle 20 . That is, one end portion 28A of the pantograph mechanism 28 is attached to the upper portion 20B of the vehicle 20. As shown in FIG. The other end 28B of the pantograph mechanism 28 is attached to the lower surface 26A of the gondola 26, and the gondola 26 is supported by the pantograph mechanism 28 from below.
  • the elevating device 22 elevates and lowers the gondola 26 in the vertical direction by expanding and contracting the pantograph mechanism 28 according to instructions given from the outside.
  • the vehicle 24 with a gondola is shown, but this is only an example, and a vehicle for aerial work, a bridge inspection vehicle, an electric slider with a lifting device, a trolley with a lifting device, or the like. , any moving device that moves at least the imaging device 34 out of the information processing device 30, the tablet terminal 32, and the imaging device 34 in the vertical direction and the horizontal direction.
  • the information processing system 12 includes an information processing device 30, a tablet terminal 32, and an imaging device 34.
  • the information processing device 30 and the imaging device 34 are installed in the gondola 26 .
  • the information processing device 30 is, for example, a notebook personal computer. Although a notebook personal computer is exemplified here, this is merely an example, and a desktop personal computer may also be used. Moreover, it is not limited to a personal computer, and may be a server.
  • the server may be a mainframe used on-premise with the imaging device 34, or may be an external server implemented by cloud computing.
  • the server may also be an external server implemented by network computing such as fog computing, edge computing, or grid computing.
  • the information processing device 30 is installed in the gondola 26, but this is merely an example, and the information processing device 30 may be installed outside the gondola 26.
  • the imaging device 34 is, for example, a lens-interchangeable digital camera.
  • an interchangeable lens type digital camera is exemplified as the imaging device 34, but this is merely an example, and a digital camera built into various electronic devices such as smart devices or wearable terminals. good too.
  • the imaging device 34 images the inspection object 16 according to instructions given from the outside. Also, the imaging device 34 is a device having a distance measuring function. The imaging device 34 has a 3D sensor 38, and the 3D sensor 38 realizes a distance measuring function. The 3D sensor 38 selectively performs distance measurement by the stereo camera method and distance measurement by the TOF method according to instructions given from the outside. In this embodiment, distance measurement refers to measurement of the distance from the imaging device 34 to the inspection object 16 . In the following description, for convenience of explanation, the imaging device 34 is calibrated in advance so that the coordinate system applied to distance measurement by the 3D sensor 38 and the coordinate system applied to imaging by the imaging device 34 are matched. It is assumed that the
  • a biaxial turning device 18 is attached to the fence 26B of the gondola 26.
  • the imaging device 34 is rotatably installed on the biaxial turning device 18 .
  • the two-axis turning device 18 pans and tilts the imaging device 34 by operating according to instructions given from the outside.
  • the two-axis swivel device 18 has a pan mechanism 40 and a tilt mechanism 42 .
  • the pan mechanism 40 has a pan axis PA.
  • the tilt mechanism 42 has a tilt axis TA.
  • the panning mechanism 40 realizes panning of the imaging device 34 by turning the imaging device 34 around the pan axis PA, and the tilting mechanism 42 turns the imaging device 34 around the tilt axis TA to realize the panning of the imaging device 34 . of tilt is realized.
  • the tablet terminal 32 is a mobile device having a touch panel reception I/F and a communication function.
  • the tablet terminal 32 is used by a user 36 boarding the gondola 26 .
  • the tablet terminal 32 is used by the user 36 inside the gondola 26 , but the tablet terminal 32 may be used by the user 36 outside the gondola 26 .
  • the information processing system 12 is an example of an "information processing system” according to the technology of the present disclosure.
  • the information processing device 30 is an example of an “information processing device” according to the technology of the present disclosure.
  • the tablet terminal 32 is an example of a "receiving device” according to the technology of the present disclosure.
  • the imaging device 34 is an example of an “imaging device” according to the technology of the present disclosure.
  • the inspection target 16 is an example of a “first imaging target” and a “second imaging target” according to the technology of the present disclosure.
  • the information processing device 30 is communicably connected to the tablet terminal 32 and the imaging device 34 .
  • the user 36 instructs the information processing device 30 via the tablet terminal 32 to cause the information processing device 30 to execute various processes.
  • processing for causing the imaging device 34 to image the inspection object 16 processing for causing the imaging device 34 to measure the distance of the inspection object 16
  • processing for operating the driving system 14 processing for causing the imaging device 34 to measure the distance of the inspection object 16
  • Image processing includes screen generation processing, synthesis processing, and inspection processing.
  • the screen generation process is, for example, a process of generating various screens according to usage.
  • the synthesizing process for example, generates a panorama image by joining a plurality of captured images obtained by imaging by the imaging device 34 in the vertical direction and the horizontal direction (for example, the vertical direction and the horizontal direction) to make a panorama. It is a process to
  • Inspection processing includes, for example, choke detection processing and damage detection processing.
  • a panorama image obtained by image processing for example, is used in the chalk detection process and the damage detection process.
  • the chalk detection process is a process for detecting chalk traces drawn with chalk on the inspection object 16 included as an image in the panoramic image.
  • the damage detection processing is processing for detecting damage (for example, cracks and/or rust) of the inspection object 16 included as an image in the panoramic image.
  • the chalk detection process is implemented by, for example, template matching subject recognition processing, and the damage detection process is implemented by, for example, AI subject recognition processing.
  • Missing parts include, for example, gaps (that is, blank areas) that occur due to a failure in splicing a plurality of captured images.
  • the inspection system 10 has the configuration shown in FIGS.
  • the information processing apparatus 30 includes a computer 44, a reception device 46, a display 48, an external I/F 50, a first communication I/F 52, a second communication I/F 54, a third communication I/F 56. , a fourth communication I/F 58 and a fifth communication I/F 60 .
  • the computer 44 is an example of a "computer” according to the technology of the present disclosure.
  • Computer 44 includes processor 62 , storage 64 and RAM 66 .
  • the processor 62 is an example of the "processor” according to the technology of the present disclosure
  • the RAM 66 is an example of the "memory” according to the technology of the present disclosure.
  • Bus 68 In the example shown in FIG. 2, one bus is shown as the bus 68 for convenience of illustration, but a plurality of buses may be used.
  • Bus 68 may be a serial bus or a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the processor 62 has, for example, a CPU and a GPU, and controls the information processing device 30 as a whole.
  • the GPU operates under the control of the CPU and is responsible for executing image processing.
  • the storage 64 is a non-volatile storage device that stores various programs and various parameters.
  • the storage 64 includes, for example, HDDs and SSDs. Note that the HDD and SSD are merely examples, and flash memory, magnetoresistive memory, and/or ferroelectric memory may be used in place of or together with the HDD and/or SSD. .
  • the RAM 66 is a memory that temporarily stores information, and is used by the processor 62 as a work memory. Examples of the RAM 66 include DRAM and/or SRAM.
  • the reception device 46 has a keyboard, mouse, touch panel, etc., and receives instructions from the user 36 (see FIG. 1).
  • the display 48 displays various information (eg, images, characters, etc.) under the control of the processor 62 .
  • Examples of the display 48 include an EL display (eg, an organic EL display or an inorganic EL display). Note that the display is not limited to the EL display, and other types of display such as a liquid crystal display may be used.
  • the external I/F 50 is in charge of exchanging various information with devices existing outside the information processing device 30 (for example, smart devices, personal computers, servers, USB memories, memory cards, and/or printers, etc.).
  • An example of the external I/F 50 is a USB interface.
  • Various devices such as smart devices, personal computers, servers, USB memories, memory cards, and/or printers are directly or indirectly connected to the USB interface.
  • the first communication I/F 52 is communicably connected to the tablet terminal 32 .
  • the first communication I/F 52 is connected so as to be able to communicate wirelessly with the tablet terminal 32 according to a predetermined wireless communication standard.
  • An example of the default wireless communication standard is Bluetooth (registered trademark).
  • wireless communication standards other than this for example, Wi-Fi, 5G, etc.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the first communication I/F 52 is in charge of exchanging information with the tablet terminal 32 .
  • the first communication I/F 52 transmits information requested by the processor 62 to the tablet terminal 32 .
  • the first communication I/F 52 also receives information transmitted from the tablet terminal 32 and outputs the received information to the processor 62 via the bus 68 .
  • the second communication I/F 54 is communicably connected to the imaging device 34 .
  • the second communication I/F 54 is connected so as to be able to communicate wirelessly with the tablet terminal 32 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the second communication I/F 54 is in charge of exchanging information with the imaging device 34 .
  • the second communication I/F 54 transmits information requested by the processor 62 to the imaging device 34 .
  • the second communication I/F 54 also receives information transmitted from the imaging device 34 and outputs the received information to the processor 62 via the bus 68 .
  • the third communication I/F 56 is communicably connected to the two-axis turning device 18 .
  • the third communication I/F 56 is connected so as to be able to communicate wirelessly with the two-axis turning device 18 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the third communication I/F 56 is responsible for exchanging information with the two-axis turning device 18 .
  • the third communication I/F 56 transmits information requested by the processor 62 to the two-axis turning device 18 .
  • the third communication I/F 56 also receives information transmitted from the two-axis turning device 18 and outputs the received information to the processor 62 via the bus 68 .
  • the fourth communication I/F 58 is communicably connected to the vehicle 20 .
  • the fourth communication I/F 58 is connected so as to be able to communicate wirelessly with the vehicle 20 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the fourth communication I/F 58 manages information exchange with the vehicle 20 .
  • the fourth communication I/F 58 transmits information requested by the processor 62 to the vehicle 20 .
  • fourth communication I/F 58 receives information transmitted from vehicle 20 and outputs the received information to processor 62 via bus 68 .
  • the fifth communication I/F 60 is communicably connected to the lifting device 22 .
  • the fifth communication I/F 60 is connected so as to be able to communicate wirelessly with the lifting device 22 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the fifth communication I/F 60 is in charge of exchanging information with the lifting device 22 .
  • the fifth communication I/F 60 transmits information requested by the processor 62 to the vehicle 20 .
  • the fifth communication I/F 60 also receives information transmitted from the lifting device 22 and outputs the received information to the processor 62 via the bus 68 .
  • the tablet terminal 32 includes a computer 70, a touch panel display 72, an external I/F 74, and a communication I/F 76.
  • the computer 70 includes a processor 78, storage 80, and RAM82.
  • Processor 78 , storage 80 and RAM 82 are connected to bus 84 .
  • bus 84 In the example shown in FIG. 3, one bus is shown as the bus 84 for convenience of illustration, but a plurality of buses may be used.
  • Bus 84 may be a serial bus or a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the processor 78 has, for example, a CPU and a GPU, and controls the tablet terminal 32 as a whole.
  • the GPU operates under the control of the CPU and is responsible for executing image processing.
  • the storage 80 is a nonvolatile storage device that stores various programs and various parameters. Examples of the storage 80 include flash memory and SSD. Note that flash memory and SSD are merely examples, and instead of flash memory and/or SSD, or together with flash memory and/or SSD, HDD, magnetoresistive memory, and/or ferroelectric memory good too.
  • the RAM 82 is a memory that temporarily stores information and is used by the processor 78 as a work memory. Examples of the RAM 82 include DRAM and/or SRAM.
  • the touch panel display 72 has a touch panel 86 and a display 88.
  • An example of the display 88 is an EL display. Note that the display is not limited to the EL display, and other types of display such as a liquid crystal display may be used.
  • the touch panel display 72 is formed by overlaying the touch panel 86 on the display area of the display 88, or by making the display 88 an in-cell type in which the touch panel function is built inside.
  • the in-cell type is merely an example, and may be an out-cell type or an on-cell type.
  • the external I/F 74 is in charge of exchanging various information with devices existing outside the tablet terminal 32 (for example, smart devices, personal computers, servers, USB memories, memory cards, and/or printers, etc.).
  • An example of the external I/F 74 is a USB interface.
  • Various devices such as smart devices, personal computers, servers, USB memories, memory cards, and/or printers are directly or indirectly connected to the USB interface.
  • the communication I/F 76 is communicably connected to the information processing device 30 .
  • the communication I/F 76 is wirelessly communicably connected to the first communication I/F 52 of the information processing device 30 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the communication I/F 76 controls information transfer between the processor 62 of the information processing device 30 and the processor 78 of the tablet terminal 32 .
  • the communication I/F 76 transmits information requested by the processor 78 to the information processing device 30 .
  • Communication I/F 76 also receives information transmitted from processor 62 of information processing device 30 via first communication I/F 52 and outputs the received information to processor 78 via bus 84 .
  • the tablet terminal 32 executes processing according to instructions received from the user 36 (see FIG. 1) through the touch panel display 72 .
  • the tablet terminal 32 exchanges various information with the information processing device 30 according to instructions received by the touch panel display 72 .
  • the tablet terminal 32 receives an image transmitted from the information processing device 30 and causes the touch panel display 72 to display the received image.
  • the imaging device 34 includes an interchangeable lens 90 and an imaging device body 92 .
  • the interchangeable lens 90 is replaceably attached to the imaging device main body 92 .
  • the imaging device main body 92 has an image sensor 94 .
  • Image sensor 94 is a CMOS image sensor.
  • the image sensor 94 captures an image of a subject (for example, the inspection object 16 shown in FIG. 1).
  • subject light representing the subject passes through the interchangeable lens 90 and forms an image on the image sensor 94, and image data representing the image of the subject is generated by the image sensor 94. be done.
  • CMOS image sensor is exemplified as the image sensor 94 here, the technology of the present disclosure is not limited to this, and other image sensors may be used.
  • the image sensor 94 has a photoelectric conversion element 96 .
  • the photoelectric conversion element 96 has a light receiving surface 96A.
  • the photoelectric conversion element 96 is arranged in the imaging device main body 92 so that the center of the light receiving surface 96A and the optical axis OA are aligned.
  • the photoelectric conversion element 96 has a plurality of photosensitive pixels arranged in a matrix, and the light receiving surface 96A is formed by the plurality of photosensitive pixels.
  • a photosensitive pixel is a physical pixel having a photodiode (not shown), photoelectrically converts received light, and outputs an electrical signal corresponding to the amount of received light.
  • the interchangeable lens 90 has an imaging lens 98 .
  • the imaging lens 98 has an objective lens 98A, a focus lens 98B, a zoom lens 98C, and an aperture 98D.
  • the objective lens 98A, the focus lens 98B, the zoom lens 98C, and the diaphragm 98D are arranged along the optical axis OA from the subject side (object side) to the imaging device main body 92 side (image side).
  • a zoom lens 98C and a diaphragm 98D are arranged in this order.
  • the interchangeable lens 90 includes a control device 102, a first actuator 104, a second actuator 106, and a third actuator .
  • the control device 102 controls the entire interchangeable lens 90 according to instructions from the imaging device main body 92 .
  • the control device 102 is, for example, a device having a computer including a CPU, NVM, RAM, and the like. Although a computer is exemplified here, this is merely an example, and devices including ASIC, FPGA, and/or PLD may be applied. Also, as the control device 102, for example, a device realized by combining a hardware configuration and a software configuration may be used.
  • the first actuator 104 includes a focus slide mechanism (not shown) and a focus motor (not shown).
  • a focus lens 98B is attached to the focus slide mechanism so as to be slidable along the optical axis OA.
  • a focus motor is connected to the focus slide mechanism, and the focus slide mechanism receives power from the focus motor and operates to move the focus lens 98B along the optical axis OA.
  • the second actuator 106 includes a zoom slide mechanism (not shown) and a zoom motor (not shown).
  • a zoom lens 98C is attached to the zoom slide mechanism so as to be slidable along the optical axis OA.
  • a zoom motor is connected to the zoom slide mechanism, and the zoom slide mechanism receives power from the zoom motor to move the zoom lens 98C along the optical axis OA.
  • an example of a form in which the focus slide mechanism and the zoom slide mechanism are provided separately is given, but this is only an example, and an integrated slide mechanism capable of both focusing and zooming is provided. It may be a mechanism. Also, in this case, power generated by one motor may be transmitted to the slide mechanism without using a focusing motor and a zooming motor.
  • the third actuator 108 includes a power transmission mechanism (not shown) and a diaphragm motor (not shown).
  • the diaphragm 98D has an aperture 98D1, and is a diaphragm with a variable size of the aperture 98D1.
  • the aperture 98D1 is formed by a plurality of aperture blades 98D2.
  • the multiple aperture blades 98D2 are connected to a power transmission mechanism.
  • a diaphragm motor is connected to the power transmission mechanism, and the power transmission mechanism transmits the power of the diaphragm motor to the plurality of diaphragm blades 98D2.
  • the plurality of diaphragm blades 98D2 change the size of the opening 98D1 by receiving power transmitted from the power transmission mechanism.
  • the diaphragm 98D adjusts exposure by changing the size of the aperture 98D1.
  • the focus motor, zoom motor, and aperture motor are connected to the control device 102, and the control device 102 controls driving of the focus motor, zoom motor, and aperture motor.
  • a stepping motor is used as an example of the motor for focus, the motor for zoom, and the motor for aperture. Therefore, the focus motor, the zoom motor, and the aperture motor are operated in synchronization with the pulse signal according to commands from the control device 102 .
  • the interchangeable lens 90 is provided with a focus motor, a zoom motor, and a diaphragm motor, but this is merely an example, and the focus motor and the zoom motor , and the aperture motor may be provided in the imaging device main body 92 . Note that the configuration and/or operation method of the interchangeable lens 90 can be changed as required.
  • the interchangeable lens 90 has a first sensor (not shown).
  • the first sensor detects the position of the focus lens 98B on the optical axis OA.
  • An example of the first sensor is a potentiometer.
  • a detection result by the first sensor is acquired by the control device 102 and output to the imaging device body 92 .
  • the imaging device body 92 adjusts the position of the focus lens 98B on the optical axis OA based on the detection result of the first sensor.
  • the interchangeable lens 90 has a second sensor (not shown).
  • a second sensor detects the position of the zoom lens 98C on the optical axis OA.
  • An example of a second sensor is a potentiometer.
  • a detection result by the second sensor is acquired by the control device 102 and output to the imaging device body 92 .
  • the imaging device main body 92 adjusts the position of the zoom lens 98C on the optical axis OA based on the detection result of the second sensor.
  • the interchangeable lens 90 has a third sensor (not shown).
  • a third sensor detects the size of the opening 98D1.
  • An example of a third sensor is a potentiometer.
  • a detection result by the third sensor is acquired by the control device 102 and output to the imaging device body 92 .
  • the imaging device main body 92 adjusts the size of the opening 98D1 based on the detection result of the third sensor.
  • MF mode and AF mode are selectively set according to instructions given to the imaging device main body 92.
  • MF mode is an operation mode for manual focusing.
  • the focus lens 98B moves along the optical axis OA by a movement amount corresponding to the amount of operation of the focus ring or the like. is regulated.
  • the imaging device main body 92 calculates the focus position according to the subject distance, and the focus is adjusted by moving the focus lens 98B toward the calculated focus position.
  • the in-focus position refers to the position of the focus lens 98B on the optical axis OA in a focused state.
  • the control for matching the focus lens 98B to the in-focus position is also referred to as "AF control".
  • the imaging device body 92 includes an image sensor 94, a controller 110, an image memory 112, a UI device 114, an external I/F 116, a communication I/F 118, a photoelectric conversion element driver 120, a mechanical shutter driver 122, a mechanical shutter actuator 124, a mechanical shutter. 126 and an input/output interface 128 .
  • the image sensor 94 also includes a photoelectric conversion element 96 and a signal processing circuit 130 .
  • the input/output interface 128 is connected to the controller 110, the image memory 112, the UI device 114, the external I/F 116, the communication I/F 118, the photoelectric conversion element driver 120, the mechanical shutter driver 122, and the signal processing circuit 130. .
  • the input/output interface 128 is also connected to the control device 102 of the interchangeable lens 90 .
  • the controller 110 comprises a processor 132 , storage 134 and RAM 136 .
  • Processor 132 , storage 134 , and RAM 136 are connected via bus 138 , which is connected to input/output interface 128 .
  • Bus 138 may be a serial bus or a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the processor 132 has, for example, a CPU and a GPU, and controls the imaging device 34 as a whole.
  • the GPU operates under the control of the CPU and is responsible for executing image processing.
  • the storage 134 is a non-temporary storage medium and stores various parameters and various programs.
  • storage 134 is an EEPROM.
  • this is merely an example, and an HDD and/or an SSD or the like may be applied as the storage 134 instead of or together with the EEPROM.
  • the RAM 136 temporarily stores various information and is used as a work memory.
  • the processor 132 reads the necessary program from the storage 134 and executes the read program in the RAM 136.
  • the processor 132 controls the entire imaging device 34 according to programs executed on the RAM 136 .
  • the processor 132 controls the image memory 112 , the UI device 114 , the external I/F 116 , the communication I/F 118 , the photoelectric conversion element driver 120 , the mechanical shutter driver 122 , and the control device 102 .
  • a photoelectric conversion element driver 120 is connected to the photoelectric conversion element 96 .
  • the photoelectric conversion element driver 120 supplies the photoelectric conversion element 96 with an imaging timing signal that defines the timing of imaging performed by the photoelectric conversion element 96 according to instructions from the processor 132 .
  • the photoelectric conversion element 96 resets, exposes, and outputs an electric signal according to the imaging timing signal supplied from the photoelectric conversion element driver 120 .
  • imaging timing signals include a vertical synchronization signal and a horizontal synchronization signal.
  • the interchangeable lens 90 When the interchangeable lens 90 is attached to the imaging device main body 92, subject light incident on the imaging lens 98 is imaged on the light receiving surface 96A by the imaging lens 98.
  • the photoelectric conversion element 96 photoelectrically converts the subject light received by the light receiving surface 96A under the control of the photoelectric conversion element driver 120, and outputs an electrical signal corresponding to the amount of the subject light as analog image data representing the subject light.
  • Output to the processing circuit 130 Specifically, the signal processing circuit 130 reads out the analog image data from the photoelectric conversion element 96 on a frame-by-frame basis and on a horizontal line-by-horizontal line basis using a sequential exposure readout method.
  • the signal processing circuit 130 generates digital image data by digitizing analog image data.
  • digital image data to be subjected to internal processing in the imaging device main body 92 and an image represented by the digital image data (that is, an image visualized based on the digital image data and displayed on a display or the like) will be described.
  • an image represented by the digital image data that is, an image visualized based on the digital image data and displayed on a display or the like
  • the mechanical shutter 126 is a focal plane shutter and is arranged between the diaphragm 98D and the light receiving surface 96A.
  • the mechanical shutter 126 has a front curtain (not shown) and a rear curtain (not shown). Each of the front curtain and the rear curtain has a plurality of blades.
  • the front curtain is arranged closer to the subject than the rear curtain.
  • the mechanical shutter actuator 124 is an actuator having a link mechanism (not shown), a front curtain solenoid (not shown), and a rear curtain solenoid (not shown).
  • the front curtain solenoid is a drive source for the front curtain and is mechanically connected to the front curtain via a link mechanism.
  • the trailing curtain solenoid is a driving source for the trailing curtain and is mechanically connected to the trailing curtain via a link mechanism.
  • Mechanical shutter driver 122 controls mechanical shutter actuator 124 according to instructions from processor 132 .
  • the front curtain solenoid generates power under the control of the mechanical shutter driver 122 and applies the generated power to the front curtain to selectively wind up and pull down the front curtain.
  • the rear curtain solenoid generates power under the control of the mechanical shutter driver 122 and applies the generated power to the rear curtain to selectively wind up and pull down the rear curtain.
  • the processor 132 controls opening and closing of the front curtain and opening and closing of the rear curtain, thereby controlling the amount of exposure to the photoelectric conversion element 96 .
  • imaging for live view images and imaging for recorded images for recording still images and/or moving images are performed by an exposure sequential reading method (rolling shutter method).
  • the image sensor 94 has an electronic shutter function, and live view image capturing is realized by activating the electronic shutter function without operating the mechanical shutter 126 while it is fully open.
  • imaging with main exposure that is, imaging for a still image (hereinafter also referred to as “main imaging”) operates the electronic shutter function and moves the mechanical shutter 126 from the front curtain closed state to the rear curtain closed state. This is realized by operating the mechanical shutter 126 so as to transition to .
  • the captured image 127 generated by the signal processing circuit 130 is stored in the image memory 112 . That is, the signal processing circuit 130 causes the image memory 112 to store the captured image 127 .
  • the processor 132 acquires the captured image 127 from the image memory 112 and uses the acquired captured image 127 to perform various processes.
  • the UI device 114 has a display 140, and the processor 132 causes the display 140 to display various information.
  • the UI system device 114 includes a reception device 142 .
  • the reception device 142 includes a touch panel 144, a release button 146, and the like.
  • the release button 146 functions as an imaging preparation instruction section and an imaging instruction section, and can detect a two-stage pressing operation in an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to, for example, the state of being pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state refers to the state of being pressed to the final pressed position (full-pressed position) beyond the intermediate position. point to Hereinafter, “the state of being pressed from the standby position to the half-pressed position” will be referred to as “half-pressed state”, and "the state of being pressed from the standby position to the fully-pressed position” will be referred to as "fully-pressed state”.
  • the external I/F 116 is in charge of exchanging various information with a device existing outside the imaging device 34 (hereinafter also referred to as "external device").
  • An example of the external I/F 116 is a USB interface.
  • 3D sensor 38 see FIGS. 1 and 5
  • a smart device a personal computer, a server, a USB memory, a memory card, and/or an external device (not shown) such as a printer can directly or indirectly connect to the USB interface. Connected.
  • the communication I/F 118 controls transmission and reception of information from the imaging device 34 to the information processing device 30 .
  • the communication I/F 118 is communicably connected to the information processing device 30 .
  • the communication I/F 118 is wirelessly communicably connected to the second communication I/F 54 of the information processing device 30 according to a predetermined wireless communication standard.
  • wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the communication I/F 118 manages information transfer between the processor 62 of the information processing device 30 and the processor 132 of the imaging device 34 .
  • the communication I/F 118 transmits information requested by the processor 132 to the information processing device 30 .
  • Communication I/F 118 also receives information transmitted from processor 62 of information processing device 30 via second communication I/F 54 and outputs the received information to processor 132 via bus 138 .
  • the processor 132 causes the 3D sensor 38 to perform distance measurement by operating the 3D sensor 38 according to instructions from the information processing device 30 . That is, the processor 132 causes the 3D sensor 38 to measure the distance to the inspection object 16 (see FIG. 1).
  • the distance measurement range that is, the range of the inspection object 16 that is measured by the 3D sensor 38 is a range corresponding to the imaging range captured by the imaging device 34 (for example, the imaging range for one frame).
  • Processor 132 obtains ranging results 150 obtained by 3D sensor 38 .
  • the distance measurement result 150 includes a distance image 148 as information based on the distance between the inspection object 16 and the imaging device 34 .
  • a distance image 148 is generated by the 3D sensor 38 based on the distance measurement results.
  • the distance image 148 is an image showing the distances from the imaging device 34 to a plurality of distance measurement points within the distance measurement range. Also, the distance image 148 has a plurality of pixels arranged in a matrix, and each pixel is expressed in a color corresponding to the distance obtained by distance measurement. Distance data indicating the distance from the imaging device 34 to a distance measurement point within the distance measurement range is assigned to the plurality of pixels, and a color corresponding to the distance indicated by the distance data is assigned. The color according to the distance is a color within a certain hue angle (here, as an example, a hue angle of 0 degrees or more and 240 degrees or less).
  • the pixel is given a color closer to blue, and the distance indicated by the distance data assigned to the pixel is increased by the imaging device 34.
  • a color closer to red is given to the pixel as the value is closer to .
  • the two-axis turning device 18, which is one of the drive systems 14, includes a pan mechanism 40, a tilt mechanism 42, a controller 152, and a communication I/F 154.
  • the controller 152 controls the two-axis turning device 18 as a whole.
  • An example of controller 152 is a computer having a processor (eg, CPU), storage (eg, EEPROM), and RAM.
  • the computer is merely an example, and devices including ASIC, FPGA, and/or PLD may be applied in place of the computer. Also, instead of a computer, a combination of hardware and software configurations may be used.
  • the communication I/F 154 is connected to the controller 152. Also, the communication I/F 154 is communicably connected to the information processing device 30 . Here, the communication I/F 154 is wirelessly communicably connected to the third communication I/F 56 of the information processing device 30 according to a predetermined wireless communication standard. Although wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the communication I/F 154 manages information transfer between the controller 152 of the two-axis turning device 18 and the processor 62 of the information processing device 30 . For example, the communication I/F 154 transmits information requested by the controller 152 to the information processing device 30 . Communication I/F 154 also receives information transmitted from processor 62 of information processing device 30 via third communication I/F 56 and outputs the received information to controller 152 .
  • the pan mechanism 40 has a pan motor 40A.
  • the panning motor 40A is connected to the controller 152 and driven under the control of the controller 152 .
  • the panning mechanism 40 pans the imaging device 34 by transmitting the driving force of the panning motor 40A to the imaging device 34 as power around the pan axis PA (see FIG. 1).
  • the tilt mechanism 42 has a tilt motor 42A.
  • the tilting motor 42A is connected to the controller 152 and driven under the control of the controller 152 .
  • the tilt mechanism 42 tilts the imaging device 34 by transmitting the driving force of the tilting motor 42A to the imaging device 34 as power around the tilt axis TA (see FIG. 1).
  • the vehicle 20, which is one of the drive systems 14, includes a controller 156, a communication I/F 158, a running motor 160, and a power transmission mechanism 162.
  • the controller 156 controls the vehicle 20 as a whole.
  • An example of controller 156 is a computer having a processor (eg, CPU), storage (eg, EEPROM), and RAM.
  • the computer is merely an example, and devices including ASIC, FPGA, and/or PLD may be applied in place of the computer. Also, instead of a computer, a combination of hardware and software configurations may be used.
  • the communication I/F 158 is connected to the controller 156. Also, the communication I/F 158 is communicably connected to the information processing device 30 . Here, the communication I/F 158 is wirelessly communicably connected to the fourth communication I/F 58 of the information processing device 30 according to a predetermined wireless communication standard. Although wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • Communication I/F 158 manages transmission and reception of information between controller 156 of vehicle 20 and processor 62 of information processing device 30 . For example, the communication I/F 158 transmits information requested by the controller 156 to the information processing device 30 . Communication I/F 158 also receives information transmitted from processor 62 of information processing device 30 via fourth communication I/F 58 and outputs the received information to controller 156 .
  • the traveling motor 160 is connected to the controller 156 and driven under the control of the controller 156 .
  • the power transmission mechanism 162 is connected to the driving motor 160 and a plurality of wheels 20A (for example, two front wheels, two rear wheels, or four wheels 20A).
  • the power transmission mechanism 162 rotates the plurality of wheels 20A by transmitting the driving force of the traveling motor 160 to the plurality of wheels 20A.
  • the vehicle 20 also includes a direction changing mechanism (not shown) that changes the direction of the plurality of wheels 20A, and a direction changing motor (not shown) that applies power to the direction changing mechanism. is controlled by the controller 156 .
  • the information processing device 30 controls the running of the vehicle 20 by controlling the driving of the running motor 160 and the direction changing motor via the controller 156 .
  • the lifting device 22 which is one of the drive systems 14, includes a controller 164, a communication I/F 166, a lifting motor 168, and a power transmission mechanism 170.
  • the controller 164 controls the entire lifting device 22.
  • An example of controller 164 is a computer having a processor (eg, CPU), storage (eg, EEPROM), and RAM.
  • the computer is merely an example, and devices including ASIC, FPGA, and/or PLD may be applied in place of the computer. Also, instead of a computer, a combination of hardware and software configurations may be used.
  • the communication I/F 166 is connected to the controller 164. Also, the communication I/F 166 is communicably connected to the information processing device 30 . Here, the communication I/F 166 is wirelessly communicably connected to the fifth communication I/F 60 of the information processing device 30 according to a predetermined wireless communication standard. Although wireless communication is exemplified here, the technology of the present disclosure is not limited to this, and wired communication may be applied instead of wireless communication.
  • the communication I/F 166 manages information transfer between the controller 164 of the lifting device 22 and the processor 62 of the information processing device 30 . For example, communication I/F 166 transmits information in response to a request from controller 164 to information processing device 30 . Communication I/F 166 also receives information transmitted from processor 62 of information processing device 30 via fifth communication I/F 60 and outputs the received information to controller 164 .
  • the lifting motor 168 is connected to the controller 164 and driven under the control of the controller 164 .
  • the power transmission mechanism 170 is connected to the lifting motor 168 and the pantograph mechanism 28 .
  • the power transmission mechanism 170 transmits the driving force of the lifting motor 168 to the pantograph mechanism 28 to extend and contract the pantograph mechanism 28 along the vertical direction.
  • the gondola 26 see FIG. 1 is raised and lowered.
  • the storage 64 of the information processing device 30 stores an inspection support processing program 172 .
  • the inspection support processing program 172 is an example of a "program" according to the technology of the present disclosure.
  • the processor 62 reads the inspection support processing program 172 from the storage 64 and executes the read inspection support processing program 172 on the RAM 66 .
  • the processor 62 performs inspection support processing according to an inspection support processing program 172 executed on the RAM 66 (see FIGS. 45A to 45D).
  • the processor 62 executes a reception unit 62A, a determination unit 62B, an imaging device control unit 62C, a screen generation unit 62D, a calculation unit 62E, a driving system control unit 62F, an acquisition unit 62G, a transmission unit 62H, synthesizer 62I, and signal generator 62J.
  • the imaging device side processing program 174 is stored in the storage 134 of the imaging device 34 .
  • the processor 132 reads the imaging device side processing program 174 from the storage 134 and executes the read imaging device side processing program 174 on the RAM 136 .
  • the processor 132 performs imaging device side processing according to an imaging device side processing program 174 executed on the RAM 136 (see FIG. 45).
  • the processor 132 operates as a receiving unit 132A, an imaging system control unit 132B, a ranging system control unit 132C, and a transmission unit 132D by executing the imaging device side processing program 174 .
  • the tablet-side processing program 176 is stored in the storage 80 of the tablet terminal 32 .
  • the processor 78 reads the tablet-side processing program 176 from the storage 80 and executes the read-out tablet-side processing program 176 on the RAM 82 .
  • the processor 78 performs tablet-side processing according to the tablet-side processing program 176 executed on the RAM 82 (see FIGS. 44A-44C).
  • the processor 78 operates as a display control section 78A, a determination section 78B, a signal generation section 78C, a transmission section 78D, a reception section 78E, and an adjustment value calculation section 78F.
  • the touch panel display 72 of the tablet terminal 32 displays a startup setting screen 178, an imaging start screen 180, and an imaging condition adjustment screen. 182, a composition confirmation screen 184, an imaging permission screen 186, and a setting screen 188 are selectively displayed.
  • the startup setting screen 178 is first displayed on the touch panel display 72 by executing tablet-side processing.
  • the start-up setting screen 178 allows the user 36 (see FIG. 1) to select execution of the choke detection process or execution of the damage detection process, and allows the user 36 to select the size of damage to be detected. This is a screen for allowing designation and receiving an instruction for the imaging device 34 to start imaging.
  • the imaging start screen is a screen that accepts an instruction to start imaging a panorama image used in chalk detection processing and/or damage detection processing.
  • the imaging condition adjustment screen 182 is a screen for receiving an instruction to adjust the imaging conditions of the imaging device 34 .
  • the imaging condition adjustment screen 182 is classified into a movement guide screen 190 , telephoto zoom guide screen 192 , wide-angle zoom guide screen 194 , and tilt adjustment guide screen 196 .
  • the movement guidance screen 190 is a screen that guides the user 36 to adjust the moving direction of the imaging range of the imaging device 34 .
  • the telephoto zoom guide screen 192 is a screen that guides the user 36 to set the optical telephoto zoom using the imaging device 34 .
  • the wide-angle zoom guide screen 194 is a screen that guides the user 36 to set the optical wide-angle zoom by the imaging device 34 .
  • the tilt adjustment guidance screen 196 is a screen that guides the user 36 to adjust the tilt of the captured image 127 .
  • the synthesis confirmation screen 184 is a screen that allows the user 36 to confirm the panoramic image.
  • the imaging permission screen 186 is a screen for notifying the user 36 that the main imaging is permitted and accepting an instruction to start the main imaging.
  • the setting screen 188 is used for various settings (for example, change from chalk detection processing to damage detection processing, change from damage detection processing to chalk detection processing, and/or change the size of damage to be detected, etc.). This is a screen for accepting an instruction for .
  • the display control unit 78A generates a startup setting screen 178 and causes the touch panel display 72 to display the generated startup setting screen 178 .
  • the start-up setting screen 178 displays a first button 178A, a second button 178B, a plurality of size designation boxes 178C, and an imaging start key 178D.
  • the first button 178A is a sliding soft key, and is switched between on and off by sliding the first button 178A. When the first button 178A is turned on, the choke detection process is executed, and when the first button 178A is turned off, the choke detection process is not executed.
  • the second button 178B is a sliding soft key.
  • a plurality of size specification boxes 178C are used to specify the size of damage or the like to be detected.
  • a plurality of size designation boxes 178C display different size ranges and radio buttons as the size of damage, etc., to be detected.
  • damage within the size range displayed in the size designation box 178C whose radio button is turned on is set as a detection target. be.
  • the imaging start key 178D accepts an instruction to the imaging device 34 to start imaging. By turning on imaging start key 178D, an instruction to start imaging to imaging device 34 is accepted.
  • the determination unit 78B determines whether or not the imaging start key 178D has been turned on. As an example, as shown in FIG. 14, when the imaging start key 178D is turned on, the signal generator 78C generates a live view imaging instruction signal and a ranging instruction signal.
  • the live view imaging instruction signal is a signal that instructs the imaging device 34 to start imaging for a live view image
  • the distance measurement instruction signal is a signal that instructs the imaging device 34 to start distance measurement, that is, This is a signal indicating an instruction to acquire the distance measurement result to the imaging device 34 .
  • the transmission unit 78D transmits the live view imaging instruction signal and the distance measurement instruction signal generated by the signal generation unit 78C to the information processing device 30 .
  • the receiving section 62A receives the ranging instruction signal transmitted from the transmitting section 78D of the tablet terminal 32 .
  • the determination unit 62B determines whether or not the signal received by the reception unit 62A is the ranging instruction signal.
  • the imaging device control unit 62C transfers the ranging instruction signal received by the receiving unit 62A to the imaging device 34. .
  • the reception unit 132A receives the ranging instruction signal transferred by the imaging device control unit 62C of the information processing device 30 .
  • the ranging system controller 132C causes the 3D sensor 38 (see FIG. 5) to perform ranging.
  • the distance measurement system control unit 132C causes the 3D sensor 38 to perform distance measurement to generate a distance image 148 (see FIG. 5), and the 3D sensor 38 , a ranging result 150 including a range image 148 is obtained.
  • the transmitter 132 ⁇ /b>D transmits the distance measurement result 150 including the distance image 148 to the information processing device 30 .
  • the reception unit 62A receives the distance measurement result 150 transmitted from the transmission unit 132D of the imaging device 34 .
  • the determination unit 62B determines whether or not the signal received by the reception unit 62A is the distance measurement result.
  • the acquiring unit 62G acquires the ranging result 150 received by the receiving unit 62A, and obtains the acquired ranging result. 150 is overwritten and saved in the distance measurement result storage area of the RAM 66 .
  • the receiving section 62A receives the live view imaging instruction signal transmitted from the transmitting section 78D of the tablet terminal 32 .
  • the determination unit 62B determines whether or not the signal received by the reception unit 62A is a live view imaging instruction signal.
  • the imaging device control unit 62C transmits the live-view imaging instruction signal received by the receiving unit 62A to the imaging device 34. Forward.
  • the receiving section 132A receives the live view imaging instruction signal transferred by the imaging device control section 62C of the information processing device 30 .
  • the imaging system control unit 132B performs live view imaging.
  • the imaging system control unit 132B captures the inspection object 16 (see FIG. 1) as a subject for a live view image, thereby obtaining a captured image 127 (see FIG. 4). ) to acquire the live view image 198 .
  • the transmission unit 132D transmits the live view image 198 acquired by the imaging system control unit 132B to the information processing device 30.
  • the receiving unit 62A receives the live view image 198 transmitted from the transmitting unit 132D of the imaging device 34.
  • the determination unit 62B determines whether or not the live view image 198 has been received by the reception unit 62A.
  • the acquisition unit 62G acquires the live view image 198 received by the reception unit 62A, and stores the acquired live view image 198 in the RAM 66. Overwrite the live view image storage area.
  • a pre-captured image 202 is stored in the storage 64 .
  • the pre-captured image 202 is an image based on the still image 206 obtained by the main imaging performed by the imaging device 34 .
  • the pre-captured image 202 is a composite image 204 or a frame of still image 206 .
  • the still image 206 is an example of the “main captured image” according to the technology of the present disclosure.
  • a composite image 204 is an image showing a wider scene than the captured scene shown by the live view image 198 .
  • the composite image 204 is an image obtained by panoramaizing a plurality of still images 206 (that is, a panorama image).
  • the pre-captured image 202 is stored in the storage 64, but there may be cases where the pre-captured image 202 is not stored in the storage 64.
  • the still image 206 for one frame obtained by the main imaging performed by the imaging device 34 is stored in the storage 64 .
  • the screen generation unit 62D generates imaging start screen data 200 based on the live view image 198 acquired by the acquisition unit 62G and the pre-captured image 202 stored in the storage 64.
  • the imaging start screen data 200 is screen data for displaying the imaging start screen 180 (see FIGS. 12, 19 and 20) on the touch panel display 72 (for example, the imaging start screen 180 (FIGS. 12, 19 and 20). 20)).
  • the transmission unit 62H transmits the imaging start screen data 200 generated by the screen generation unit 62D to the tablet terminal 32.
  • the imaging start screen data 200 is an example of "screen data” according to the technology of the present disclosure.
  • transmission of the imaging start screen data 200 by the transmission unit 62H is an example of “output” of “screen data” according to the technology of the present disclosure.
  • the touch panel display 72 is an example of the “first display” and the “second display” according to the technology of the present disclosure.
  • the imaging start screen 180 includes a screen frame 180A, a live view area 180B, a guide view area 180C, a wide view area 180D, a guide area 180E, and an instruction reception area 180F.
  • the screen frame 180A is a screen frame with specifications common to the imaging start screen 180, the imaging condition adjustment screen 182, the synthesis confirmation screen 184, and the imaging permission screen 186.
  • a setting button 208, an imaging mode change button 210, a reference button 212, and an imaging end key 214 are displayed at the upper end of the screen frame 180A.
  • the setting button 208 is a button for accepting an instruction to switch the screen currently displayed on the touch panel display 72 to the setting screen 188 (see FIG. 12).
  • the setting button 208 is turned on, the screen currently displayed on the touch panel display 72 (the imaging start screen 180 in the example shown in FIG. 19) is switched to the setting screen 188 .
  • the imaging mode change button 210 is a sliding soft key, and by sliding the imaging mode change button 210, ON and OFF can be switched.
  • AF mode is set as the imaging mode of the imaging device 34
  • the imaging mode change button 210 is turned off, the MF mode is set as the imaging mode of the imaging device 34 .
  • the reference button 212 is a button for accepting an instruction to display predetermined information (hereinafter referred to as “reference information”) as information to be referred to by the user 36 .
  • reference information predetermined information
  • the imaging end key 214 is a soft key for accepting an instruction to end imaging for a live view image. When the imaging end key 214 is turned on, imaging for the live view image by the imaging device 34 is stopped.
  • a live view area 180B is superimposed on an area of the screen frame 180A other than the upper end.
  • a live view image 198 is displayed in the live view area 180B.
  • An instruction receiving area 180F is superimposed on the central portion of the live view area 180B.
  • the instruction receiving area 180F is a circular area. Any mark that can be visually identified as the instruction receiving area 180F may be used.
  • the circular instruction receiving area 180F is illustrated, but this is merely an example, and the shape of the instruction receiving area 180F may be a shape other than a circle (for example, a rhombus or a triangle). good.
  • the instruction receiving area 180F has a function as a soft key, and an instruction to start capturing a panoramic image used in the chalk detection process and/or the damage detection process (hereinafter, also referred to as a "panorama image capturing start instruction"). ) are accepted. Receipt of the panoramic image imaging start instruction by the instruction receiving area 180F is realized by tapping the instruction receiving area 180F.
  • a guide view area 180C is superimposed on the lower left part of the live view area 180B in front view.
  • the guide view area 180C includes a wide view area 180D and a guide area 180E.
  • a wide view area 180D is superimposed on the guide view area 180C within a range inside the outer frame of the guide view area 180C.
  • a pre-captured image 202 (composite image 204 in the example shown in FIG. 19) is displayed in the wide-view area 180D.
  • the guide area 180E has a smaller display area than the wide view area 180D, and is movable within a range inside the outer frame of the guide view area 180C.
  • the guide area 180E overlaps the guide view area 180C within the guide view area 180C, and overlaps the wide view area 180D within the wide view area 180D.
  • Movement of the guide area 180E within the guide view area 180C is achieved by, for example, swiping or flicking the touch panel display 72 by the user.
  • a live view image 198 is displayed in the guide area 180E.
  • the guide area 180E has a similar relationship with the live view area 180B.
  • the entire live-view image 198 displayed in the live-view area 180B is displayed in a reduced state.
  • the outer edge 180E1 of the guide area 180E is highlighted so that the image area corresponding to the live view image 198 displayed in the live view area 180B can be identified within the wide view area 180D. That is, the outer edge 180E1 is highlighted so that the boundary between the guide area 180E and other areas can be visually identified.
  • the outer edge 180E1 is an example of "guide information" according to the technology of the present disclosure.
  • the reception unit 78E receives the imaging start screen data 200 transmitted from the transmission unit 62H of the information processing device 30 .
  • the determining unit 78B determines whether or not the imaging start screen data 200 has been received by the receiving unit 78E.
  • the display control unit 78A causes the touch panel display 72 to display the imaging start screen 180 indicated by the imaging start screen data 200 received by the reception unit 78E.
  • the determination unit 78B determines whether the user 36 has tapped the instruction reception area 180F in the imaging start screen 180 displayed on the touch panel display 72.
  • the signal generating unit 78C generates an imaging condition confirmation signal.
  • the imaging condition confirmation signal is a signal that instructs the information processing device 30 to confirm the imaging conditions for generating the composite image 204 .
  • the transmitter 78D transmits the imaging condition confirmation signal generated by the signal generator 78C to the information processing device 30 .
  • the reception section 62A receives the imaging condition confirmation signal transmitted from the transmission section 78D of the tablet terminal 32 .
  • the determination unit 62B determines whether or not the signal received by the reception unit 62A is the imaging condition confirmation signal.
  • the acquisition unit 62G acquires the pre-captured image 202 from the storage 64, and the live view image 198 and the live view image 198 from the RAM 66.
  • a distance measurement result 150 is acquired.
  • the calculator 62E calculates the overlap rate, zoom rate, and tilt angle.
  • the overlap ratio refers to the ratio of the area of overlap region 216 to the area of live view image 198 .
  • the overlap area 216 refers to an area where the live view image 198 and the pre-captured image 202 overlap.
  • the overlap between the live view image 198 and the pre-captured image 202 is described as an example, but the still image 206 and the pre-captured image obtained by performing the main imaging by the imaging device 34 202 may be overlapped.
  • the zoom magnification refers to the optical zoom magnification required to match the size of the live view image 198 and the size of the one-frame still image 206 (see FIG. 18) that constitutes the pre-captured image 202 .
  • the tilt angle refers to the angle formed by the imaging target surface included in the inspection object 16 (see FIG. 1) and the light receiving surface 96A (see FIG. 4).
  • the angle formed by the imaging target surface and the light receiving surface 96A is, for example, the angle formed by the normal vector of the imaging target surface and the normal vector of the light receiving surface 96A.
  • the imaging target plane refers to, for example, a plane included in the central portion of the imaging range of the inspection target 16 (for example, the central portion occupying several tens of percent of the imaging range).
  • the imaging target plane is specified, for example, from a region 148A corresponding to the central portion of the imaging range for the inspection target 16 in the distance image 148 included in the distance measurement result 150 .
  • the widest plane included as an image in the area 148A is the imaging target plane.
  • the imaging target plane is an example of the "first imaging target plane” and the “second imaging target plane” according to the technology of the present disclosure.
  • the light-receiving surface 96A is an example of the “predetermined surface included in the imaging device” and the “surface corresponding to the imaging surface of the image sensor” according to the technology of the present disclosure.
  • the determination unit 62B determines whether the overlap rate calculated by the calculation unit 62E shown in FIG. 23 is outside the predetermined range.
  • the predetermined range refers to, for example, a range within 30% ⁇ several percent (that is, an allowable error).
  • the calculation unit 62E determines the movement direction and the amount of movement of the imaging range, and determines the direction and amount of movement necessary for the overlap rate to fall within the predetermined range. Calculate the amount of movement.
  • the screen generation unit 62D generates movement guidance screen data 218 based on the movement direction and movement amount calculated by the calculation unit 62E.
  • the movement guidance screen data 218 is screen data for displaying the movement guidance screen 190 (see FIGS. 12 and 25) on the touch panel display 72 (for example, screen data showing the movement guidance screen 190).
  • the transmission unit 62H transmits the movement guidance screen data 218 generated by the screen generation unit 62D to the tablet terminal 32.
  • a movement guidance screen 190 indicated by the movement guidance screen data 218 has an instruction reception area 190A applied instead of the instruction reception area 180F compared to the imaging start screen 180 (see FIG. 19). There is a difference.
  • the instruction receiving area 190A is a diamond-shaped area, and wedge-shaped marks 190A1 to 190A4 are assigned to the four corners of the rhombus to indicate the four directions of up, down, left, and right.
  • a message prompting the user 36 to move the imaging range is displayed in the instruction receiving area 190A. In the example shown in FIG. 25, the message "Please move" is displayed.
  • the mark 190A1 is tapped.
  • the mark 190A2 is tapped.
  • the mark 190A3 is tapped.
  • mark 190A4 is tapped.
  • a unit movement amount (for example, a movement amount for one tap) is, for example, 0.01 mm.
  • the amount of movement of the imaging range is determined according to, for example, the number of taps on the marks 190A1 to 190A4 or the length of long press.
  • the unit movement amount may be a fixed value or a variable value that is changed according to given instructions or various conditions.
  • the receiving section 78E receives the movement guidance screen data 218 transmitted from the transmitting section 62H of the information processing device 30 .
  • the determination unit 78B determines whether or not the movement guidance screen data 218 has been received by the reception unit 78E.
  • the display control unit 78A displays the movement guidance screen 190 indicated by the movement guidance screen data 218 received by the reception unit 78E on the touch panel display. 72.
  • the example shown in FIG. 26 shows a mode in which the user 36 taps the mark 190A4 in the movement guidance screen 190. In the example shown in FIG.
  • the imaging range moves leftward by a movement amount corresponding to the number of taps.
  • the display control section 78A may erase the message in the instruction receiving area 190A.
  • the determination unit 62B determines whether or not the zoom magnification calculated by the calculation unit 62E shown in FIG. 23 needs to be changed. For example, when the zoom magnification is a value other than "1", it is determined that the zoom magnification needs to be changed.
  • the calculation unit 62E calculates the insufficient zoom magnification.
  • the insufficient zoom magnification refers to the zoom magnification that is insufficient to set the zoom magnification to “1”.
  • the screen generation unit 62D generates the zoom guide screen data 220 based on the insufficient zoom magnification calculated by the calculation unit 62E.
  • the zoom guide screen data 220 is screen data (for example, screen data showing a telephoto zoom guidance screen 192 or a wide-angle zoom guidance screen 194).
  • the transmission unit 62H transmits the zoom guidance screen data 220 generated by the screen generation unit 62D to the tablet terminal 32.
  • FIG. For convenience of explanation, the telephoto zoom guide screen 192 and the wide-angle zoom guide screen 194 will hereinafter be referred to as "zoom guide screens" without reference numerals unless it is necessary to distinguish between them.
  • telephoto zoom guidance screen 192 differs from movement guidance screen 190 in that instruction reception area 192A is applied instead of instruction reception area 190A and reference frame 192B is provided. different.
  • the instruction receiving area 192A is an area that is similar to the imaging range and has a rectangular outer frame.
  • a message prompting the user 36 to operate the telephoto zoom is displayed in the instruction receiving area 192A. In the example shown in FIG. 28, the message "Please bring closer" is displayed.
  • a reference frame 192B is assigned to an instruction receiving area 192A.
  • Reference frame 192B is a frame similar to instruction receiving area 192A and is larger than instruction receiving area 192A.
  • the reference frame 192B is a frame having a size corresponding to the imaging range obtained by compensating for the insufficient zoom magnification.
  • a wide-angle zoom guide screen 194 has an instruction reception area 194A instead of an instruction reception area 192A, and a reference frame 192B instead of a reference frame 192B. The difference is that a frame of reference 194B is applied.
  • the instruction receiving area 194A is an area that is similar to the imaging range and has a rectangular outer frame.
  • a message prompting the user 36 to operate the wide-angle zoom is displayed in the instruction receiving area 194A. In the example shown in FIG. 29, the message "please release" is displayed.
  • a reference frame 194B is assigned to an instruction receiving area 194A.
  • Reference frame 194B is a frame similar to instruction receiving area 194A, and is smaller than instruction receiving area 194A.
  • the reference frame 194B is a frame having a size corresponding to the imaging range obtained by compensating for the insufficient zoom magnification.
  • the receiving section 78E receives the zoom guidance screen data 220 transmitted from the transmitting section 62H of the information processing device 30 .
  • the determination unit 78B determines whether or not the zoom guide screen data 220 has been received by the reception unit 78E.
  • the display control unit 78A displays the zoom guidance screen indicated by the zoom guidance screen data 220 received by the reception unit 78E on the touch panel display 72. to display.
  • FIG. 30 shows a mode in which the user 36 performs a pinch-out operation on the touch panel display 72 as an operation for adjusting the size of the instruction receiving area 192A in the telephoto zoom guidance screen 192 to the size of the reference frame 192B.
  • the size of the instruction receiving area 192A gradually increases due to the pinch-out operation, and eventually matches the size of the reference frame 192B.
  • display control unit 78A may delete the message in instruction reception area 192A, or perform peaking processing on instruction reception area 192A. may be applied.
  • the user 36 performs a pinch-in operation on the touch panel display 72 as an operation for adjusting the size of the instruction receiving area 194A in the wide-angle zoom guide screen 194 to the size of the reference frame 194B.
  • the pinch-in operation gradually increases the size of instruction receiving area 194A, and eventually matches the size of reference frame 194B.
  • display control unit 78A may erase the message in instruction receiving area 194A, or perform peaking processing on instruction receiving area 194A. may be applied.
  • the determination unit 62B determines whether or not the tilt angle calculated by the calculation unit 62E shown in FIG. 23 is an angle other than the facing angle. For example, it is determined whether or not the angle with respect to the light receiving surface 96A (see FIG. 4) is greater than 0 degrees ⁇ several hundredths of degrees (that is, the allowable error).
  • the calculation unit 62E calculates a differential angle.
  • the difference angle refers to the difference angle between the tilt angle and the facing angle.
  • the difference angle is an example of "information indicating whether or not the second imaging target plane imaged by the imaging device and the imaging device face each other" according to the technology of the present disclosure.
  • the screen generation unit 62D generates the tilt adjustment guidance screen data 222 based on the difference angle calculated by the calculation unit 62E.
  • the tilt adjustment guidance screen data 222 is screen data for displaying the tilt adjustment guidance screen 196 (see FIGS. 12 and 32) on the touch panel display 72 (for example, screen data showing the tilt adjustment guidance screen 196).
  • the transmission unit 62H transmits the tilt adjustment guidance screen data 222 generated by the screen generation unit 62D to the tablet terminal 32.
  • the tilt adjustment guidance screen 196 has an instruction reception area 196A instead of the instruction reception area 194A, and a reference frame 194B instead of the reference frame 194B. The difference is that a frame of reference 196B is applied.
  • the instruction receiving area 196A is an area that is similar to the imaging range and has a rectangular outer frame.
  • a message prompting the user 36 to adjust the tilt of the imaging range is displayed in the instruction receiving area 196A.
  • the message "Please adjust the tilt” is displayed.
  • a reference frame 196B is assigned to the instruction receiving area 196A.
  • the reference frame 196B is a frame having a shape and size corresponding to the imaging range obtained by supplementing the difference angle.
  • the receiving section 78E receives the tilt adjustment guidance screen data 222 transmitted from the transmitting section 62H of the information processing device 30 .
  • the determination unit 78B determines whether or not the tilt adjustment guidance screen data 222 has been received by the reception unit 78E.
  • the display control unit 78A displays the tilt adjustment guidance screen 196 indicated by the tilt adjustment guidance screen data 222 received by the reception unit 78E. is displayed on the touch panel display 72 .
  • a pinch-in operation and/or a pinch-out operation on the touch panel display 72 is performed as the operation for adjusting the shape and size of the instruction receiving area 196A in the tilt adjustment guidance screen 196 to the shape and size of the reference frame 196B.
  • the manner performed by the user 36 is shown.
  • the pinch-in operation and/or the pinch-out operation change the shape and size of the instruction receiving area 196A, and eventually match the shape and size of the reference frame 192B.
  • the display control unit 78A may erase the message in the instruction receiving area 196A. may be subjected to peaking processing.
  • the adjustment value calculation unit 78F calculates an adjustment value according to the adjustment instruction.
  • the adjustment instruction is, for example, an operation (eg, tapping) by the user 36 on the instruction reception area 190A in the movement guidance screen 190 shown in FIG.
  • an operation by the user 36 on 194A for example, a pinch-in operation and/or a pinch-out operation
  • an operation by the user 36 on an instruction reception area 196A in the tilt adjustment guidance screen 196 shown in FIG. 33 as an example (for example, pinch-in operation) operation and/or pinch-out operation).
  • the signal generator 78C generates an adjustment result signal indicating the adjustment value calculated by the adjustment value calculator 78F.
  • the transmitter 78D transmits the adjustment result signal generated by the signal generator 78C to the information processing device 30 .
  • the receiving section 62A receives the adjustment result signal transmitted from the transmitting section 78D of the tablet terminal 32 .
  • the determination unit 62B determines whether or not the adjustment result signal has been received by the reception unit 62A.
  • the imaging device control unit 62C controls the imaging device 34 according to the adjustment result signal received by the reception unit 62A, and the drive system control unit 62F. controls the drive system 14 in accordance with the adjustment result signal received by the receiver 62A.
  • the imaging device control unit 62C when the adjustment value indicated by the adjustment result signal received by the receiving unit 62A is an adjustment value determined in accordance with an adjustment instruction for the instruction receiving area 192A or 194A (see FIG. 30), the imaging device control unit 62C , the zoom lens 98C (see FIG. 4) is moved along the optical axis OA so as to compensate for the insufficient zoom magnification. After moving the zoom lens 98C in this manner, the zoom magnification is calculated again by the calculator 62E (see FIG. 23).
  • the driving system control unit 62F when the adjustment value indicated by the adjustment result signal received by the receiving unit 62A is an adjustment value determined in accordance with the adjustment instruction for the instruction receiving area 190A (see FIG. 26), the driving system control unit 62F , the vehicle 20 is driven or the lifting device 22 is operated so that the imaging range is moved in the direction and amount of movement corresponding to the adjustment value. After operating the vehicle 20 and/or the lifting device 22 in this way, the overlap rate is calculated again by the calculator 62E (see FIG. 23).
  • the driving system control unit 62F operates the two-axis turning device 18 so that the differential angle is eliminated. After operating the two-axis turning device 18 in this way, the tilt angle is calculated again by the calculator 62E (see FIG. 23).
  • the overlap ratio calculated by the calculation unit 62E is within the predetermined range, the zoom magnification calculated by the calculation unit 62E does not need to be changed, and the tilt angle calculated by the calculation unit 62E is a facing angle.
  • the signal generating unit 62J sets an imaging enable signal indicating that it is determined that the main imaging can be performed. That is, the signal generator 62J generates an image-capable signal and causes the RAM 66 to store the image-capable signal.
  • the screen generation unit 62D performs imaging when the signal generation unit 62J sets the imaging enable signal, that is, when the imaging enable signal is stored in the RAM 66.
  • Permission screen data 224 is generated.
  • the imaging permission screen data 224 is screen data for displaying the imaging permission screen 186 (see FIGS. 12 and 38) on the touch panel display 72 (for example, screen data indicating the imaging permission screen 186).
  • the transmission unit 62H transmits the imaging permission screen data 224 generated by the screen generation unit 62D to the tablet terminal 32, and erases the imaging enable signal in the RAM66.
  • the image capturing permission screen data 224 is an example of “data in which a screen includes an image capturing instruction receiving area in a display mode for notifying that the main image capturing can be performed” according to the technology of the present disclosure.
  • the imaging instruction receiving area 186A includes the imaging instruction receiving area 186A as a display mode area for notifying that the main imaging is executable.
  • the imaging permission screen 186 differs from the imaging start screen 180 in that an imaging instruction receiving area 186A is applied instead of the instruction receiving area 180F.
  • the imaging instruction receiving area 186A differs from the instruction receiving area 180F in that it includes a message indicating that the main imaging can be performed (in the example shown in FIG. 38, the message "Imaging OK"). Note that the message indicating that the main imaging can be performed is not essential, and the message indicating that the main imaging can be performed may or may not be present.
  • the receiving section 78E receives the imaging permission screen data 224 transmitted from the transmitting section 62H of the information processing device 30 .
  • the determining unit 78B determines whether or not the imaging permission screen data 224 has been received by the receiving unit 78E.
  • the display control unit 78A displays the imaging permission screen 186 indicated by the imaging permission screen data 224 received by the reception unit 78E on the touch panel display. 72.
  • the determination unit 78B determines whether or not the user 36 has tapped the imaging instruction receiving area 186A in the imaging permission screen 186 displayed on the touch panel display 72. .
  • a tap by the user 36 on the imaging instruction receiving area 186A is an example of an "imaging instruction" according to the technology of the present disclosure.
  • the signal generation unit 78C When an instruction from the user 36 is received by the imaging instruction receiving area 186A, that is, when the determination unit 78B determines that the imaging instruction receiving area 186A has been tapped by the user 36, the signal generation unit 78C generates a main imaging instruction signal.
  • the main imaging instruction signal is a signal that instructs the imaging device 34 to perform main imaging of the inspection object 16 (see FIG. 1) shown by the live view image 198 .
  • the transmission unit 78D transmits the main imaging instruction signal generated by the signal generation unit 78C to the information processing device 30 .
  • the receiving section 62A receives the main imaging instruction signal transmitted from the transmitting section 78D of the tablet terminal 32 .
  • the determination unit 62B determines whether or not the main imaging instruction signal has been received by the reception unit 62A.
  • the imaging device control unit 62C transfers the main imaging instruction signal received by the reception unit 62A to the imaging device 34 .
  • transfer of the main imaging instruction signal is an example of "output" of the "main imaging instruction signal" according to the technology of the present disclosure.
  • the receiving section 132A receives the main imaging instruction signal transferred from the imaging device control section 62C of the information processing device 30 .
  • the imaging system control unit 132B performs main imaging.
  • the imaging system control unit 132B performs main imaging with the inspection object 16 (see FIG. 1) as a subject, thereby obtaining a static image 127 (see FIG. 4). An image 206 is obtained.
  • the transmission unit 132D transmits the still image 206 acquired by the imaging system control unit 132B to the information processing device 30.
  • the receiving section 62A receives the still image 206 transmitted from the transmitting section 132D of the imaging device 34 .
  • Determining unit 62B determines whether or not still image 206 has been received by receiving unit 62A.
  • the synthesizing unit 62I acquires the still image 206 received by the receiving unit 62A.
  • the synthesizing unit 62 ⁇ /b>I acquires the pre-captured image 202 from the storage 64 .
  • the synthesizing unit 62I generates a synthetic image 204 by overlapping the still image 206 with the pre-captured image 202 at an overlap ratio within the above-described predetermined range to create a panorama.
  • the screen generation unit 62D generates screen data 226 containing a combined image using the combined image 204 generated by the combining unit 62I.
  • the screen data containing a synthesized image 226 is screen data indicating a screen containing a synthesized image.
  • the screen containing a synthesized image is, for example, the pre-captured image 202 displayed in the wide view area 180D of each of the imaging start screen 180, the imaging condition adjustment screen 182, the synthesis confirmation screen 184, and the imaging permission screen 186, and the synthesizing unit 62I. 2 is screen data showing a screen replaced with the latest synthesized image 204 generated in .
  • the transmission unit 62 ⁇ /b>H transmits the screen data 226 including the composite image to the tablet terminal 32 .
  • a synthesized image 204 obtained by panoramaizing a plurality of still images 206 is displayed in a wide view area 180D. Is displayed. While the imaging start screen 180 is being displayed on the touch panel display 72 , the display control unit 78A switches from the imaging start screen 180 to the composition confirmation screen 184 according to the instruction received by the touch panel display 72 .
  • an example of an instruction accepted by the touch panel display 72 is a tap on the wide view area 180D by the user 36, for example.
  • the tap is not limited to the wide view area 180D, and may be the tap to the guide view area 180C or the guide area 180E. Also, the tap is merely an example, and a long press, flick or swipe may be performed instead of the tap.
  • a reduced live view area 184A is displayed in the lower left portion of the composite confirmation screen 184 when viewed from the front, and a composite image confirmation view area 180D1 is displayed in the center of the screen.
  • the reduced live-view area 184A is a screen obtained by reducing the live-view area 180B.
  • the entire live-view area 180B is reduced in size to match the outer frame of the reduced live-view area 184A. displayed.
  • the composite image confirmation view area 180D1 is displayed superimposed on the enlarged guide view area 180C.
  • the composite image confirmation view area 180D1 is an area obtained by enlarging the wide view area 180D, and the composite image 204 is also enlarged at the same magnification as the wide view area 180D and displayed in the composite image confirmation view area 180D1. That is, the composite image confirmation view area 180D1 is an area obtained by enlarging the composite image 204 and the composite image confirmation view area 180D1.
  • the display control unit 78A switches the screen displayed on the touch panel display 72 from the composition confirmation screen 184 to the imaging start screen 180 .
  • the processor 78 of the tablet terminal 32 requests the information processing device 30 to switch the screen (for example, switching from the imaging start screen 180 to the synthesis confirmation screen 184).
  • the processor 62 may generate composite confirmation screen data indicating a screen after switching (for example, the composite confirmation screen 184 ) and transmit it to the tablet terminal 32 .
  • the processor 62 of the tablet terminal 32 may cause the touch panel display 72 to display the composite confirmation screen 184 indicated by the composite confirmation screen data transmitted from the information processing device 30 .
  • FIG. 44A the operation of the information processing system 12 will be described with reference to FIGS. 44A to 46.
  • FIGS. 44A to 44C show an example of the flow of tablet-side processing performed by the processor 78.
  • FIG. 44A-44C show an example of the flow of tablet-side processing performed by the processor 78.
  • step ST10 the display control unit 78A generates the startup setting screen 178 and causes the touch panel display 72 to display the generated startup setting screen 178 (see FIG. 13).
  • step T10 the tablet-side process proceeds to step ST12.
  • the determination unit 78B determines whether or not the imaging start key 178D in the startup setting screen 178 has been turned on (see FIG. 13). In step ST12, if the imaging start key 178D is not turned on, the determination is negative, and the tablet-side processing proceeds to step ST68 shown in FIG. 44C. In step ST12, if the imaging start key 178D is turned on, the determination is affirmative, and the processing on the tablet side proceeds to step ST14.
  • step ST14 the signal generation unit 78C generates a live view imaging instruction signal and a ranging instruction signal. After the process of step ST14 is executed, the tablet-side process proceeds to step ST16.
  • step ST16 the transmission unit 78D transmits the live view imaging instruction signal and the ranging instruction signal generated at step ST14 to the information processing device 30 (see FIGS. 15 and 17). After the process of step ST16 is executed, the tablet-side process proceeds to step ST18.
  • step ST16 On the condition that the process of step ST16 is executed, the process of step ST118 is executed in the inspection support process shown in FIG. 45A.
  • the imaging start screen data 200 (see FIG. 18) is transmitted from the information processing device 30 to the tablet terminal 32 by executing the process of step ST118.
  • the determination unit 78B determines whether or not the imaging start screen data 200 has been received by the reception unit 78E (see FIG. 21). In step ST18, if the imaging start screen data 200 has not been received by the receiving unit 78E, the determination is negative, and the determination in step T18 is performed again. In step ST18, when the imaging start screen data 200 is received by the receiving unit 78E, the determination is affirmative, and the tablet-side processing proceeds to step ST20.
  • step ST20 the display control unit 78A causes the touch panel display 72 to display the imaging start screen 180 indicated by the imaging start screen data 200 received by the reception unit 78E (see FIG. 21).
  • step ST20 the tablet-side process proceeds to step ST22.
  • step ST22 the determination unit 78B determines whether or not the instruction reception area 180F in the imaging start screen 180 displayed on the touch panel display 72 has been tapped (see FIG. 22). In step ST22, if the instruction receiving area 180F has not been tapped, the determination is negative, and the determination in step ST22 is performed again. In step ST22, when the instruction receiving area 180F is tapped, the determination is affirmative, and the tablet-side processing proceeds to step ST24.
  • step ST24 the signal generator 78C generates an imaging condition confirmation signal (see FIG. 22). After the process of step ST24 is executed, the tablet-side process proceeds to step ST26.
  • step ST26 the transmission unit 78D transmits the imaging condition confirmation signal generated at step ST24 to the information processing device 30 (see FIG. 22). After the process of step ST26 is executed, the tablet-side process proceeds to step ST28.
  • step ST132 On the condition that the process of step ST26 has been executed, the process of step ST132, the process of step ST140, and/or the process of step ST148 are executed in the inspection support process shown in FIGS. 45B and 45C.
  • the movement guidance screen data 218 (see FIG. 24) is transmitted from the information processing device 30 to the tablet terminal 32.
  • FIG. Zoom guidance screen data 220 (see FIG. 27) is transmitted from information processing device 30 to tablet terminal 32 by executing the process of step ST140.
  • the tilt adjustment guidance screen data 222 (see FIG. 31) is transmitted from the information processing device 30 to the tablet terminal 32 by executing the process of step ST148.
  • step ST28 the determination unit 78B determines whether or not the movement guidance screen data 218 has been received by the reception unit 78E (see FIG. 26). In step ST28, if the movement guidance screen data 218 has not been received by the receiving unit 78E, the determination is negative, and the tablet-side processing proceeds to step ST36 shown in FIG. 44B. In step ST28, when the movement guidance screen data 218 is received by the receiving unit 78E, the determination is affirmative, and the tablet-side processing proceeds to step ST30.
  • step ST30 the display control section 78A causes the touch panel display 72 to display the movement guidance screen 190 indicated by the movement guidance screen data 218 received by the receiving section 78E (see FIG. 26).
  • step ST30 the touch panel side process proceeds to step ST32.
  • the determination unit 78B determines whether or not an adjustment instruction has been given to the movement guidance screen 190 (see FIG. 26) displayed on the touch panel display 72.
  • the adjustment instruction refers to, for example, tapping the marks 190A1 to 190A (see FIG. 26) of the instruction receiving area 190A.
  • the determination is negative, and the determination in step ST32 is performed again.
  • the determination is affirmative, and the tablet-side processing proceeds to step ST34.
  • step ST34 the adjustment value calculation unit 78F calculates an adjustment value according to the adjustment instruction given to the movement guidance screen 190 (see FIG. 26) (see FIG. 34).
  • step ST34 the touch panel side process proceeds to step ST36 shown in FIG. 44B.
  • step ST36 shown in FIG. 44B the determining unit 78B determines whether or not the receiving unit 78E has received the zoom guide screen data 220 (see FIG. 30). In step ST36, if the zoom guide screen data 220 has not been received by the receiver 78E, the determination is negative, and the tablet-side processing proceeds to step ST44. In step ST36, when the zoom guide screen data 220 is received by the receiving unit 78E, the determination is affirmative, and the tablet-side processing proceeds to step ST38.
  • step ST38 the display control section 78A causes the touch panel display 72 to display the zoom guidance screen indicated by the zoom guidance screen data 220 received by the receiving section 78E (see FIG. 30).
  • step ST40 the tablet-side process proceeds to step ST40.
  • the determination unit 78B determines whether or not an adjustment instruction has been given to the zoom guidance screen (see FIG. 30) displayed on the touch panel display 72.
  • the adjustment instruction refers to, for example, a pinch-out operation and/or a pinch-in operation with respect to the instruction reception area 192A or 194A.
  • the determination is negative, and the determination in step ST40 is performed again.
  • the determination is affirmative, and the tablet-side processing proceeds to step ST42.
  • step ST42 the adjustment value calculation unit 78F calculates an adjustment value according to the adjustment instruction given to the zoom guidance screen (see FIG. 30) (see FIG. 34). After the process of step ST42 is executed, the touch panel side process proceeds to step ST44.
  • step ST44 the determination unit 78B determines whether or not the tilt adjustment guidance screen data 222 has been received by the reception unit 78E (see FIG. 33). In step ST44, if the tilt adjustment guidance screen data 222 has not been received by the reception unit 78E, the determination is negative, and the tablet-side processing proceeds to step ST46. In step ST44, when the tilt adjustment guidance screen data 222 is received by the reception unit 78E, the determination is affirmative, and the tablet-side processing proceeds to step ST46.
  • step ST46 the display control section 78A causes the touch panel display 72 to display the tilt adjustment guidance screen 196 indicated by the tilt adjustment guidance screen data 222 received by the receiving section 78E (see FIG. 33).
  • step ST48 the tablet-side process proceeds to step ST48.
  • the determination unit 78B determines whether or not an adjustment instruction has been given to the tilt adjustment guidance screen 196 (see FIG. 33) displayed on the touch panel display 72.
  • the adjustment instruction refers to, for example, a pinch-out operation and/or a pinch-in operation with respect to the instruction reception area 196A (see FIG. 33).
  • the determination is negative, and the determination in step ST48 is performed again.
  • step ST48 if an adjustment instruction is given to the tilt adjustment guidance screen 196, the determination is affirmative, and the tablet-side processing proceeds to step ST50.
  • step ST50 the adjustment value calculation unit 78F calculates an adjustment value according to the adjustment instruction given to the tilt adjustment guidance screen 196 (see FIG. 33) (see FIG. 34). After the process of step ST50 is executed, the touch panel side process proceeds to step ST52.
  • the determination unit 78B determines whether or not the adjustment value is calculated in at least one of the processing of step ST34, the processing of step ST42, and the processing of step ST50. In step ST52, if the adjustment value is not calculated in at least one of the processing of step ST34, the processing of step ST42, and the processing of step ST50, the determination is negative, and the tablet-side processing is performed as shown in FIG. 44C. to step ST58. In step ST52, if the adjustment value is calculated in at least one of the processing of step ST34, the processing of step ST42, and the processing of step ST50, the determination is affirmative, and the tablet-side processing proceeds to step ST54. do.
  • step ST54 the signal generator 78C generates an adjustment result signal (see FIG. 34). After the process of step ST54 is executed, the tablet-side process proceeds to step ST56.
  • step ST56 the transmission unit 78D transmits the adjustment result signal generated at step ST54 to the information processing device 30 (see FIG. 34).
  • step ST58 the tablet-side process proceeds to step ST58 shown in FIG. 44C.
  • step ST56 Under the condition that the process of step ST56 has been executed, in the inspection support process shown in FIG. ) is sent.
  • the determination unit 78B determines whether or not the imaging permission screen data 224 transmitted from the information processing device 30 has been received by the reception unit 78E (see FIG. 39). In step ST58, if the imaging permission screen data 224 has not been received by the receiving section 78E, the determination is negative, and the determination in step ST58 is performed again. In step ST58, if the imaging permission screen data 224 is received by the receiving section 78E, the determination is affirmative, and the tablet-side processing proceeds to step ST60.
  • step ST60 the display control unit 78A causes the touch panel display 72 to display the imaging permission screen 186 indicated by the imaging permission screen data 224 received by the reception unit 78E (see FIG. 39).
  • step ST60 the touch panel side process proceeds to step ST62.
  • the determination unit 78B determines whether or not the imaging instruction receiving area 186A in the imaging permission screen 186 displayed on the touch panel display 72 has been tapped (see FIG. 40). In step ST62, if the imaging instruction receiving area 186A is not tapped, the determination is negative, and the determination in step ST62 is performed again. In step ST62, if the imaging instruction receiving area 186A is tapped, the determination is affirmative, and the touch panel side processing proceeds to step ST64.
  • step ST64 the signal generation unit 78C generates a main imaging instruction signal (see FIG. 40). After the process of step ST64 is executed, the tablet-side process proceeds to step ST66.
  • step ST66 the transmission unit 78D transmits the main imaging instruction signal generated at step ST64 to the information processing device 30 (see FIG. 40). After the process of step ST66 is executed, the tablet-side process proceeds to step ST68.
  • step ST68 the determination unit 78B determines whether or not a condition for terminating the tablet-side processing (hereinafter referred to as "tablet-side processing termination condition") is satisfied.
  • a condition for terminating the tablet-side processing hereinafter referred to as "tablet-side processing termination condition"
  • a first example of the tablet-side processing end condition is that touch panel display 72 has accepted an instruction to end the tablet-side processing.
  • a second example of the tablet-side processing condition is that a predetermined time (for example, 15 minutes) has passed without the processing of step ST66 being executed after the tablet-side processing was started.
  • step ST68 if the tablet-side process end condition is not satisfied, the determination is negative, and the tablet-side process proceeds to step ST14 shown in FIG. 44A. In step ST68, if the tablet-side processing end condition is satisfied, the determination is affirmative, and the tablet-side processing ends.
  • FIGS. 45A to 45D show an example of the flow of inspection support processing performed by the processor 62.
  • FIG. 45A to 45D show an example of the flow of inspection support processing performed by the processor 62.
  • step ST100 the determination unit 62B causes the distance measurement instruction signal transmitted from the tablet terminal 32 by executing the process of step ST16 shown in FIG. It is determined whether or not it has been received (see FIG. 15).
  • step ST100 if the distance measurement instruction signal has not been received by receiving section 62A, the determination is negative, and the inspection support process proceeds to step ST108.
  • step ST100 if the distance measurement instruction signal is received by receiving section 62A, the determination is affirmative, and the inspection support process proceeds to step ST102.
  • step ST102 the imaging device control section 62C transfers the ranging instruction signal received by the receiving section 62A to the imaging device 34 (see FIG. 15). After the process of step ST102 is executed, the inspection support process proceeds to step ST104.
  • step ST102 On the condition that the process of step ST102 has been executed, in the image pickup apparatus side process shown in FIG. (See FIGS. 5 and 16).
  • step ST104 the determination unit 62B determines whether or not the distance measurement result 150 transmitted from the imaging device 34 has been received by the reception unit 62A (see FIG. 16). In step ST104, if the distance measurement result 150 has not been received by the receiving section 62A, the determination is negative, and the determination in step ST104 is performed again. In step ST104, if the distance measurement result 150 is received by the receiver 62A, the determination is affirmative, and the inspection support process proceeds to step ST106.
  • step ST106 the acquisition unit 62G acquires the distance measurement result 150 received by the reception unit 62A, and overwrites and saves the acquired distance measurement result 150 in the RAM 66 (see FIG. 16). After the process of step ST106 is executed, the inspection support process proceeds to step ST108.
  • step ST108 the determining unit 62B determines whether or not the receiving unit 62A has received the live view imaging instruction signal transmitted from the tablet terminal 32 by executing the process of step ST16 shown in FIG. 44A (see FIG. 44A). 17). In step ST108, if the live view imaging instruction signal has not been received by the receiving section 62A, the determination is negative, and the inspection support process proceeds to step ST100. In step ST108, when the live view imaging instruction signal is received by the receiving section 62A, the determination is affirmative, and the inspection support process proceeds to step ST110.
  • step ST110 the imaging device control section 62C transfers the live view imaging instruction signal received by the receiving section 62A to the imaging device 34 (see FIG. 17). After the process of step ST110 is executed, the inspection support process proceeds to step ST112.
  • step ST110 On the condition that the process of step ST110 has been executed, in the image pickup apparatus side process shown in FIG. (See FIG. 18).
  • step ST112 the determination unit 62B determines whether or not the live view image 198 transmitted from the imaging device 34 has been received by the reception unit 62A (see FIG. 18). In step ST112, if the live view image 198 has not been received by the receiving section 62A, the determination is negative, and the determination in step ST112 is performed again. In step ST112, if live view image 198 is received by receiver 62A, the determination is affirmative, and the inspection support process proceeds to step ST114.
  • step ST114 the acquisition unit 62G acquires the live view image 198 received by the reception unit 62A, and overwrites and saves the acquired live view image 198 in the RAM 66 (see FIG. 18).
  • the inspection support process proceeds to step ST116.
  • step ST116 the screen generation unit 62D generates imaging start screen data 200 (see FIG. 18). After the process of step ST116 is executed, the inspection support process proceeds to step ST118.
  • step ST118 the transmission unit 62H transmits the imaging start screen data 200 generated at step ST116 to the tablet terminal 32 (see FIG. 18). After the process of step ST118 is executed, the inspection support process proceeds to step ST120 shown in FIG. 45B.
  • step ST120 shown in FIG. 45B the determination unit 62B determines whether or not the reception unit 62A has received the imaging condition confirmation signal transmitted from the tablet terminal 32 by executing the process of step ST26 shown in FIG. 44A. (See FIG. 23). In step ST120, if the imaging condition confirmation signal has not been received by the receiving section 62A, the determination is negative, and the determination in step ST120 is performed again. In step ST120, when the imaging condition confirmation signal is received by the receiving section 62A, the determination is affirmative, and the inspection support process proceeds to step ST122.
  • step ST122 the acquisition unit 62G acquires the pre-captured image 202 from the storage 64, and also acquires the live view image 198 and the distance measurement result 150 from the RAM 66 (see FIG. 23). After the process of step ST122 is executed, the inspection support process proceeds to step ST124.
  • step ST124 the calculation unit 62E calculates the overlap ratio, zoom magnification, and tilt angle using the pre-captured image 202, the live view image 198, and the distance measurement result 150 acquired in step ST122 (Fig. 23 reference). After the process of step ST124 is executed, the inspection support process proceeds to step ST126.
  • step ST126 the determination unit 62B determines whether or not the overlap rate calculated at step ST124 is outside the predetermined range (see FIG. 24). In step ST126, if the overlap rate is within the predetermined range, the determination is negative, and the inspection support process proceeds to step ST134 shown in FIG. 45C. In step ST126, if the overlap rate is outside the predetermined range, the determination is affirmative, and the inspection support process proceeds to step ST128.
  • step ST1208 the calculation unit 62E calculates the direction and amount of movement of the imaging range of the imaging device 34 that allows the overlap ratio to fall within a specified range (see FIG. 24). After the process of step ST128 is executed, the inspection support process proceeds to step ST130.
  • step ST130 the screen generator 62D generates movement guide screen data 218 based on the movement direction and movement amount calculated at step ST128 (see FIG. 24). After the process of step ST130 is executed, the inspection support process proceeds to step ST132.
  • step ST132 the transmission unit 62H transmits the movement guidance screen data 218 generated at step ST130 to the tablet terminal 32 (see FIG. 24). After the process of step ST132 is executed, the inspection support process proceeds to step ST134 shown in FIG. 45C.
  • step ST134 shown in FIG. 45C the determination unit 62B refers to the zoom magnification calculated in step ST124 and determines whether or not it is necessary to change the zoom magnification of the imaging device 34 (see FIG. 27). In step ST134, if it is not necessary to change the zoom magnification, the determination is negative, and the inspection support process proceeds to step ST142. In step ST134, if the zoom magnification needs to be changed, the determination is affirmative, and the inspection support process proceeds to step ST136.
  • step ST136 the calculator 62E calculates the insufficient zoom magnification (see FIG. 27). After the process of step ST136 is executed, the inspection support process proceeds to step ST138.
  • step ST138 the screen generator 62D generates the zoom guidance screen data 220 based on the insufficient zoom magnification calculated at step ST136 (see FIG. 27). After the process of step ST136 is executed, the inspection support process proceeds to step ST140.
  • step ST140 the transmission unit 62H transmits the zoom guidance screen data 220 generated at step ST138 to the tablet terminal 32 (see FIG. 27). After the process of step ST140 is executed, the inspection support process proceeds to step ST142.
  • step ST142 the determination unit 62B determines whether or not the tilt angle calculated at step ST124 is an angle other than the facing angle (see FIG. 31). In step ST142, if the tilt angle is the facing angle, the determination is negative, and the inspection support process proceeds to step ST150. In step ST142, if the tilt angle is an angle other than the facing angle, the determination is affirmative, and the inspection support process proceeds to step ST144.
  • step ST144 the calculator 62E calculates a difference angle, which is the difference between the tilt angle calculated at step ST124 and the facing angle (see FIG. 31). After the process of step ST144 is executed, the inspection support process proceeds to step ST146.
  • step ST146 the screen generator 62D generates the tilt adjustment guidance screen data 222 based on the difference angle calculated at step ST144 (see FIG. 31). After the process of step ST146 is executed, the inspection support process proceeds to step ST148.
  • step ST148 the transmission unit 62H transmits the tilt adjustment guidance screen data 222 generated at step ST146 to the tablet terminal 32 (see FIG. 31). After the process of step ST148 is executed, the inspection support process proceeds to step ST150.
  • step ST150 the determination unit 62B determines whether or not the adjustment result signal transmitted from the tablet terminal 32 is received by the reception unit 62A by executing the process of step ST56 shown in FIG. 44B (see FIG. 35). ). In step ST150, if the adjustment result signal has not been received by receiving section 62A, the determination is negative, and the inspection support process proceeds to step ST154. In step ST150, if the adjustment result signal is received by receiving section 62A, the determination is affirmative, and the inspection support process proceeds to step ST152.
  • step ST152 the driving system control unit 62F controls the driving system 14 according to the adjustment result signal received by the receiving unit 62A, and the imaging device control unit 62C controls the imaging device 34 according to the adjustment result signal received by the receiving unit 62A.
  • Optical zoom is performed by moving the zoom lens 98C (see FIG. 4) along the optical axis OA (see FIG. 35).
  • the determination unit 62B determines whether or not the imaging conditions necessary for performing the main imaging for creating the composite image 204 are satisfied.
  • the imaging conditions necessary for performing the main imaging for creating the composite image 204 the overlap rate is within a predetermined range, the zoom magnification does not need to be changed, and the tilt angle is positive. There is a condition that the angles are diagonal (see FIG. 36).
  • the determination is negative, and the inspection support processing proceeds to step ST166 shown in FIG. 45D.
  • the determination is affirmative, and the inspection support processing proceeds to step ST156.
  • step ST156 the signal generation unit 62J generates an image-capable signal, and stores the generated image-capable signal in the RAM 66 (see FIG. 36).
  • step ST158 the inspection support process proceeds to step ST158 shown in FIG. 45D.
  • step ST158 shown in FIG. 45D the screen generation unit 62D generates imaging permission screen data 224 (see FIG. 37). That is, the screen generation unit 62D generates the imaging permission screen data 224 on condition that the imaging enable signal is stored in the RAM 66.
  • FIG. After the process of step ST158 is executed, the inspection support process proceeds to step ST160.
  • step ST160 the transmission unit 62H transmits the imaging permission screen data 224 generated at step ST158 to the tablet terminal 32, and erases the imaging enable signal from the RAM 66 (see FIG. 37). After the process of step ST160 is executed, the inspection support process proceeds to step ST162.
  • step ST162 the determination unit 62B determines whether or not the main imaging instruction signal transmitted from the tablet terminal 32 is received by the reception unit 62A by executing the process of step ST66 shown in FIG. 44C (see FIG. 41). reference). In step ST162, when the main imaging instruction signal has not been received by the receiving section 62A, the determination is negative, and the determination in step ST162 is performed again. In step ST162, when the main imaging instruction signal is received by the receiving section 62A, the determination is affirmative, and the inspection support process proceeds to step ST164.
  • step ST164 the imaging device control section 62C transfers the main imaging instruction signal received by the receiving section 62A to the imaging device 34 (see FIG. 41). After the process of step ST164 is executed, the inspection support process proceeds to step ST166.
  • step ST166 the determination unit 62B determines whether or not a condition for ending the inspection support process (hereinafter referred to as "inspection support process end condition") is satisfied.
  • a first example of the inspection support processing end condition is that an instruction to end the inspection support processing has been given to the information processing device 30 .
  • a second example of the condition for terminating the inspection support process is that a predetermined time (for example, 15 minutes) has passed since the inspection support process started without the process of step ST164 being executed.
  • step ST166 if the inspection support process end condition is not satisfied, the determination is negative, and the inspection support process proceeds to step ST100 shown in FIG. 45A. In step ST166, if the inspection support process end condition is satisfied, the determination is affirmative and the inspection support process ends.
  • FIG. 46 shows an example of the flow of imaging device side processing performed by the processor 132 .
  • step ST200 the distance measurement system control section 132C receives the distance measurement instruction signal transferred from the information processing device 30 by executing the processing of step ST102 shown in FIG. 45A. has been received by the receiver 132A.
  • step ST200 if the distance measurement instruction signal has not been received by the receiving section 132A, the determination is negative, and the processing on the imaging device side proceeds to step ST208.
  • step ST200 when the distance measurement instruction signal is received by the receiving section 132A, the determination is affirmative, and the processing on the imaging device side proceeds to step ST202.
  • step ST202 the ranging system control section 132C causes the 3D sensor 38 (see FIGS. 1 and 5) to perform ranging (see FIGS. 15 and 16).
  • step ST204 the imaging apparatus side process proceeds to step ST204.
  • step ST204 the ranging system control section 132C acquires the ranging result 150 from the 3D sensor 38 (see FIG. 16). After the process of step ST204 is executed, the imaging apparatus side process proceeds to step ST206.
  • step ST206 the transmission unit 132D transmits the distance measurement result 150 acquired at step ST204 to the information processing device 30 (see FIG. 16). After the process of step ST206 is executed, the imaging apparatus side process proceeds to step ST208.
  • step ST208 the imaging system control unit 132B determines whether or not the receiving unit 132A has received the live view imaging instruction signal transferred by executing the process of step ST110 shown in FIG. 45A. In step ST208, if the receiving unit 132A has not received the live view imaging instruction signal, the determination is negative, and the imaging device side processing proceeds to step ST220. In step ST208, if the receiving unit 132A receives the live view imaging instruction signal, the determination is affirmative, and the imaging device side processing proceeds to step ST210.
  • step ST210 the imaging system control unit 132B executes live view image imaging (see FIGS. 17 and 18). After the process of step ST210 is executed, the imaging device side process proceeds to step ST212.
  • step ST212 the imaging system control unit 132B acquires the live view image 198 (see FIG. 18). After the process of step ST212 is executed, the imaging device side process proceeds to step ST214.
  • step ST214 the transmission unit 132D transmits the live view image 198 acquired at step ST212 to the information processing device 30 (see FIG. 18). After the process of step ST214 is executed, the imaging device side process proceeds to step ST216.
  • step ST216 the imaging system control section 132B determines whether or not the main imaging instruction signal transferred from the information processing device 30 by executing the process of step ST164 shown in FIG. 45D is received by the receiving section 132A. . In step ST216, if the main imaging instruction signal has not been received by the receiving section 132A, the determination is negative, and the imaging device side processing proceeds to step ST220. In step ST216, when the main imaging instruction signal is received by the receiving section 132A, the determination is affirmative, and the imaging device side processing proceeds to step ST218.
  • step ST218 the imaging system control unit 132B acquires the still image 206 by executing the main imaging. Then, the transmission unit 132D transmits the still image 206 acquired by the imaging system control unit 132B to the information processing device 30. FIG. After the process of step ST218 is executed, the imaging device side process proceeds to step ST220.
  • the still image 206 transmitted to the information processing device 30 by executing the process of step ST218 is synthesized with the pre-captured image 202 by the synthesizing unit 62I of the information processing device 30 to be panoramaized.
  • An image 204 is generated (see FIG. 42).
  • the screen generation unit 62D transmits the screen data 226 including the synthesized image to the tablet terminal 32 based on the synthesized image 204 obtained by the synthesizing unit 62I (see FIG. 42).
  • the screen with synthesized image indicated by the screen data with synthesized image 226 is displayed on the touch panel display 72 .
  • a composite image 204 is displayed on the composite image screen (see FIG. 43).
  • the composite image 204 is scaled according to instructions given to the touch panel display 72 (see FIG. 43).
  • the imaging system control unit 132B determines whether or not the condition for terminating the imaging device side processing (hereinafter referred to as "imaging device side processing termination condition") is satisfied.
  • a first example of the imaging device side processing end condition is that an instruction to end the imaging device side processing has been given to the imaging device 34 .
  • a second example of the condition for ending the processing on the imaging device side is that a predetermined time (for example, 15 minutes) has passed since execution of the processing on the imaging device side was started without the processing of step ST218 being executed. be done.
  • step ST220 if the imaging device side processing end condition is not satisfied, the determination is negative, and the imaging device side processing proceeds to step ST200.
  • step ST200 if the imaging device side processing end condition is satisfied, the determination is affirmative and the imaging device side processing ends.
  • the imaging enable signal is set based on the captured image 127 and the distance measurement result 150.
  • the imaging enable signal is a signal indicating that it has been determined that the imaging device 34 can perform the main imaging.
  • the imaging enable signal when the imaging enable signal is set, the imaging permission screen data 224 indicating the imaging permission screen 186 including the imaging instruction receiving area 186A is transmitted to the tablet terminal 32.
  • FIG. when the imaging instruction receiving area 186A included in the imaging permission screen 186 displayed on the touch panel display 72 of the tablet terminal 32 is tapped, the imaging scene shown by the live view image 198 is sent to the imaging device 34 for main imaging.
  • a main imaging instruction signal is transmitted to the imaging device 34 to instruct the imaging device 34 to perform the main imaging.
  • the imaging device 34 executes the main imaging on condition that the main imaging instruction signal is received. Therefore, according to this configuration, compared to the case where the user 36 is notified of the timing determined without using either the captured image 127 or the distance measurement result 150 as the image capturing timing, the image capturing device 34 can receive the image with better timing. Main imaging can be performed.
  • a composite image 204 is generated.
  • the composite image 204 is an image showing an imaging scene wider than the imaging scene shown by the live view image 198 . Therefore, according to this configuration, it is possible for the user 36 to visually recognize a wider scene than the captured scene shown by the live view image 198 .
  • an image obtained by panoramaizing the plurality of still images 206 is generated as the composite image 204 . Therefore, according to this configuration, it is possible to make the user 36 visually recognize the area in which the actual imaging was performed more easily than when the plurality of still images 206 are displayed one frame at a time. .
  • data representing a screen including the synthesized image confirmation view area 180D1 obtained by enlarging the wide view area 180D together with the synthesized image 204 is transmitted to the tablet terminal 32 as screen data 226 containing the synthesized image.
  • a composite confirmation screen 184 is displayed on the touch panel display 72 as a screen including a composite image confirmation view area 180D1. Therefore, according to this configuration, the visibility of the synthetic image 204 can be improved as compared with the case where the synthetic image 204 is not enlarged.
  • a signal indicating an instruction to acquire the distance measurement result to the imaging device 34, and an instruction to the imaging device 34 to measure the distance between the inspection object 16 and the imaging device 34 A ranging instruction signal is transmitted to the imaging device 34 as a signal indicating .
  • the imaging device 34 performs distance measurement when receiving the distance measurement instruction signal. Therefore, according to this configuration, it is possible to cause the imaging device 34 to acquire the distance measurement result without the user 36 directly touching the imaging device 34 to operate the imaging device 34 . Further, the imaging device 34 can measure the distance between the inspection object 16 and the imaging device 34 without the user 36 directly touching the imaging device 34 to operate the imaging device 34 .
  • the main imaging instruction signal is transmitted to the imaging device 34 on condition that the imaging enable signal is generated, and the imaging device 34 performs main imaging.
  • the image-capable signal is generated on the condition that the tilt angle calculated by the calculator 62E is a facing angle. Therefore, according to this configuration, it is possible to obtain the still image 206 with less inclination than when the imaging ready signal is generated when the inclination angle is an angle other than the facing angle.
  • the main imaging instruction signal is transmitted to the imaging device 34 on condition that the imaging enable signal is generated, and the imaging device 34 performs main imaging.
  • the image-capable signal is generated on condition that the overlap rate calculated by the calculator 62E is within a predetermined range. Therefore, according to this configuration, compared to the case where the overlap rate is not considered at all when generating the synthetic image 204 in which the plurality of still images 206 are panoramaized, the lacking portions (for example, blank spaces) in the synthetic image 204 area) can be suppressed.
  • information indicating whether or not the tilt angle is a facing angle is acquired by the determination unit 62B as information based on the distance measurement result 150 (see FIGS. 31 and 36). Therefore, according to this configuration, it is possible to obtain information indicating whether or not the tilt angle is the facing angle without the user 36 directly touching the imaging device 34 to operate the imaging device 34 .
  • the imaging system control unit 132B acquires a distance image 148 as information based on the distance between the inspection object 16 and the imaging device 34 (see FIGS. 5 and 16). Therefore, the distance image 148 can be obtained without the user 36 directly touching the imaging device 34 to operate the imaging device 34 .
  • the real space area of the imaging region indicated by the composite image 204 (hereinafter also simply referred to as "real space area") is not calculated, but as an example, as shown in FIG. 47, a calculator 62E is provided.
  • the real space area may be calculated by
  • the calculation unit 62E calculates the length L of the area in the real space included in the subject (for example, the inspection object 16) using the following formula (1), and uses the calculated L Calculate the real space area.
  • L is the length of the area in real space included in the subject (e.g., inspection object 16)
  • u1 and u2 are the addresses of specified pixels in composite image 204.
  • D is the distance measured by the 3D sensor 38
  • p is the pitch between photosensitive pixels included in the photoelectric conversion element 96
  • f is the focal length of the imaging lens 98 .
  • the screen generation unit 62D generates screen data 228 indicating a screen including the real space area calculated by the calculation unit 62E.
  • the transmission unit 62H transmits the screen data 228 generated by the screen generation unit 62D to the tablet terminal 32.
  • FIG. The screen data 228 is, for example, a screen including a real space area in at least one of the imaging start screen 180, the imaging condition adjustment screen 182, the synthesis confirmation screen 184, and the imaging permission screen 186 shown in FIG. Data.
  • a screen indicated by the screen data 228 is displayed on the touch panel display 72 of the tablet terminal 32 .
  • a combined confirmation screen 184 including a display area 184B is shown.
  • the display area 184B is displayed in a popped-up state from the composite image confirmation view area 180D1.
  • the real space area calculated by the calculator 62E is displayed in the display area 184B. Therefore, it is possible to visually grasp the real space area of the imaging region indicated by the synthesized image 204 .
  • the screen data 228 indicating the screen including the real space area is transmitted from the information processing device 30 to the tablet terminal 32, but the technology of the present disclosure is not limited to this.
  • the processor 62 of the information processing device 30 may transmit distance measurement result data for displaying information based on the distance measurement result 150 on the touch panel display 72 to the tablet terminal 32 .
  • the screen generation unit 62D generates screen data indicating a screen including distance measurement result data as the screen data 228, and the transmission unit 62H transmits the screen data 228 generated by the screen generation unit 62D to the tablet terminal. 32.
  • the distance image 148 is given as a first example of the distance measurement result data.
  • a second example of distance measurement result data is the distance from the imaging device 34 to a specific position (for example, a position designated by the user 36) within the inspection object 16.
  • a third example of distance measurement result data is facing information indicating whether or not the inclination angle is a facing angle.
  • a fourth example of the distance measurement result data is a focus area frame, which is a frame indicating the focus area specified based on the distance measurement result 150 .
  • FIG. 49 shows an example of a mode in which the composite confirmation screen 184 is displayed on the touch panel display 72 as a screen indicated by the screen data 228 generated by the screen generator 62D based on the distance measurement result data.
  • the composition confirmation screen 184 has a distance measurement information display area 230 .
  • Information indicating the distance to the position specified by the user 36 is displayed in the form of a message in the distance measurement information display area 230 . This allows the user 36 to visually recognize the distance to the position specified by the user 36 .
  • Numerical values indicating the distance from the imaging device 34 to the position specified by the user 36 (50.0 m and 35.2 m in the example shown in FIG. ) is displayed.
  • a message and numerical values relating to distance are displayed on the touch panel display 72, but the touch panel display 72 is not limited to this, and a distance image 148, orientation information, and/or a focus area frame, etc. are also displayed on the touch panel display 72. may be made.
  • the facing information may be displayed in the distance measurement information display area 230 in the form of a message.
  • the main imaging is started by tapping the imaging instruction receiving area 186A, but the technique of the present disclosure is not limited to this, and the release button 146 (see FIG. 4) is operated.
  • the actual imaging may be started by
  • inspection support processing may be performed by the tablet terminal 32 and/or the imaging device 34 .
  • the tablet terminal 32 may directly communicate with the driving system 14 and the imaging device 34 without going through the information processing device 30 .
  • a plurality of devices may distribute the inspection support processing.
  • various screens are displayed on the touch panel display 72 of the tablet terminal 32.
  • the technology of the present disclosure is not limited to this.
  • Various screens may be displayed on the display 48 of the information processing device 30 .
  • the tablet-side processing may be performed by the information processing device 30 .
  • the technique of the present disclosure is not limited to this, and an instruction for main imaging is also accepted by the release button 146. You may do so.
  • the release button 146 is locked in advance, and the locked state of the release button 146 is released at the timing when the imaging instruction receiving area 186A is displayed.
  • determination unit 62B in information processing device 30 determines whether or not an imaging permission signal has been stored in RAM 66 .
  • the imaging device control unit 62C transmits an unlock instruction signal for releasing the lock state of the release button 146 to the imaging device 34.
  • the imaging device 34 when the receiver 132 A receives the unlock instruction signal, the imaging system controller 132 B unlocks the release button 146 .
  • the release button 146 it is possible to prevent the release button 146 from being erroneously operated at a timing when the release button 146 should not be operated, and to operate the release button 146 at a timing when the release button 146 may be operated. can.
  • the adjustment value calculation unit 78F calculates the adjustment value according to the adjustment instruction given to the imaging condition adjustment screen 182 via the touch panel display 72.
  • the technique of the present disclosure includes:
  • the adjustment value may be directly calculated from the amount of positional deviation of the imaging range, the insufficient zoom magnification, and the difference angle without going through the adjustment instruction.
  • the adjustment value may be calculated from an arithmetic expression in which the displacement amount, the insufficient zoom magnification, and/or the difference angle are independent variables, and the adjustment value is the dependent variable.
  • the adjustment value may be derived from a table that inputs the insufficient zoom magnification and/or the differential angle and outputs the adjustment value.
  • the imaging enable signal may be set on the condition that the positional deviation amount, the insufficient zoom magnification, and the differential angle are adjusted by the processor 62 according to the adjustment values. . Even if the imaging enable signal is set in this way, the imaging instruction receiving area 186A is displayed on the imaging permission screen 186 as in the above embodiment.
  • An image sensor having a surface phase difference type photoelectric conversion element may selectively perform imaging and distance measurement.
  • an image sensor provided with an image plane phase difference type photoelectric conversion element in which one pixel is provided with a pair of photodiodes hereinafter referred to as an "image plane phase difference type image sensor"). also called may be used.
  • Each of all the photosensitive pixels included in the photoelectric conversion element of the image plane phase difference image sensor includes a pair of independent photodiodes.
  • One photodiode of the pair of photodiodes receives a first light flux obtained by pupil-dividing a light flux representing a subject (hereinafter also referred to as "subject light flux") transmitted through the imaging lens 98.
  • the second photodiode obtained by pupil-dividing the subject light flux is incident on the other photodiode of the pair of photodiodes.
  • All the photosensitive pixels included in the photoelectric conversion elements of the image plane phase difference image sensor have the function of outputting data related to imaging and phase difference. For example, when imaging is performed in the imaging mode, the photoelectric conversion element of the image plane phase difference image sensor outputs non-phase difference pixel data by combining a pair of photodiodes into one pixel. For example, when distance measurement is performed in the distance measurement mode, the photoelectric conversion element of the image plane phase difference type image sensor outputs phase difference pixel data from each of the pair of photodiodes.
  • the photosensitive pixels can selectively output non-phase difference pixel data and phase difference pixel data.
  • the non-phase difference pixel data is pixel data obtained by photoelectric conversion performed by the entire area of the photosensitive pixel
  • the phase difference pixel data is obtained by photoelectric conversion performed by a partial area of the photosensitive pixel. pixel data.
  • the entire area of the pixel is the light-receiving area including the pair of photodiodes.
  • a partial region of a pixel is a light receiving region of one photodiode of a pair of photodiodes or a light receiving region of the other photodiode of a pair of photodiodes.
  • a captured image 127 is generated based on the non-phase difference pixel data.
  • the distance from the imaging device 34 to the inspection object 16 is calculated based on the phase difference pixel data. That is, the phase difference (i.e., shift amount and The distance to the real space point corresponding to each pixel is calculated based on the shift direction).
  • a distance image 148 is generated based on the distance calculated for each pixel.
  • the technology of the present disclosure is not limited to the fact that all the photosensitive pixels included in the photoelectric conversion elements of the image plane phase difference type image sensor have both functions of capturing and outputting data related to phase difference. That is, the photoelectric conversion element may include photosensitive pixels that do not have the function of outputting data on imaging and phase difference.
  • the photoelectric conversion element of the image sensor is not limited to an image plane phase difference type photoelectric conversion element in which a pair of photodiodes is provided in one pixel, and a photosensitive pixel for imaging for acquiring non-phase difference pixel data. , and a photosensitive pixel for phase difference detection for obtaining phase difference pixel data.
  • the phase difference pixel is provided with a light shielding member so as to receive light from one of the first partial pupil region and the second partial pupil region.
  • the storage 64 stores the inspection support processing program 172 as an example, but the technology of the present disclosure is not limited to this.
  • the inspection support processing program 172 may be stored in a portable storage medium 300 such as an SSD or USB memory.
  • Storage medium 300 is a non-temporary storage medium.
  • the inspection support processing program 172 stored in the storage medium 300 is installed in the computer 44 of the information processing device 30 .
  • Processor 62 executes inspection support processing according to inspection support processing program 172 .
  • the inspection support processing program 172 is stored in a storage device such as another computer or server device connected to the information processing device 30 via the network, and the inspection support processing program 172 is stored in response to a request from the information processing device 30. may be downloaded and installed on computer 44 .
  • inspection support processing program 172 it is not necessary to store all of the inspection support processing program 172 in a storage device such as another computer or server device connected to the information processing device 30, or in the storage 64. It may be stored.
  • the computer 44 is built in the information processing device 30 shown in FIG. 2 , the technology of the present disclosure is not limited to this. good.
  • the computer 44 is exemplified in the above embodiment, the technology of the present disclosure is not limited to this, and instead of the computer 44, a device including ASIC, FPGA, and/or PLD may be applied. Also, instead of the computer 44, a combination of hardware configuration and software configuration may be used.
  • processors can be used as hardware resources for executing the inspection support processing described in the above embodiment.
  • the processor include a CPU, which is a general-purpose processor that functions as a hardware resource that executes inspection support processing by executing software, that is, programs.
  • processors include, for example, FPGAs, PLDs, ASICs, and other dedicated electric circuits that are processors having circuit configurations specially designed to execute specific processing.
  • a memory is built in or connected to each processor, and each processor uses the memory to execute inspection support processing.
  • a hardware resource that executes inspection support processing may be configured with one of these various processors, or a combination of two or more processors of the same or different types (for example, a combination of multiple FPGAs, or (combination of CPU and FPGA). Also, the hardware resource for executing the inspection support process may be one processor.
  • one processor is configured by combining one or more CPUs and software, and this processor functions as a hardware resource for executing inspection support processing.
  • this processor functions as a hardware resource for executing inspection support processing.
  • SoC there is a form of using a processor that implements the functions of the entire system including multiple hardware resources for executing inspection support processing with a single IC chip. In this way, the inspection support process is implemented using one or more of the above-described various processors as hardware resources.
  • a and/or B is synonymous with “at least one of A and B.” That is, “A and/or B” means that only A, only B, or a combination of A and B may be used. Also, in this specification, when three or more matters are expressed by connecting with “and/or”, the same idea as “A and/or B" is applied.

Abstract

情報処理装置のプロッサは、ライブビュー画像及び本撮像画像に基づく事前撮像画像を取得し、測距結果及び撮像画像のうちの少なくとも一方に基づき本撮像可能であると判断したことを示す撮像可能信号を設定し、画面データを出力する。画面に含まれるライブビュー領域には、ライブビュー画像が表示される。画面に含まれるガイドビュー領域は、ワイドビュー領域及びガイド領域を含む。ワイドビュー領域には、事前撮像画像が表示される。ガイド領域にはガイド情報が表示される。プロセッサは、撮像可能信号を設定した場合に、撮像指示受付領域が画面に含まれるデータとして画面データを出力し、撮像指示受付領域によって撮像指示が受け付けられた場合に本撮像指示信号を出力する。

Description

情報処理装置、情報処理システム、情報処理方法、及びプログラム
 本開示の技術は、情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。
 特開2012-029245号公報には、被写体の撮影を行って撮影結果に応じた信号を出力する第1撮像部と、第1撮像部よりも広角で被写体の撮影を行って撮影結果に応じた信号を出力する第2撮像部と、被写体に含まれる特定被写体が第1撮像部の撮影範囲から外れたとき、第2撮像部の出力信号に基づき、第1撮像部の撮影範囲と特定被写体の位置との関係に応じた報知情報を出力する報知情報出力部と、を備えたことを特徴とする撮像装置が開示されている。
 特開2013-013050号公報には、第1の被写体画像を取得する第1撮像光学系と、第1撮像光学系により取得された第1の被写体画像よりも望遠側の第2の被写体画像を取得可能な第2撮像光学系と、第1撮像光学系により取得された第1の被写体画像の映像信号を第1画像データに変換する第1撮像部と、第2撮像光学系により取得された第2の被写体画像の映像信号を第2画像データに変換する第2撮像部と、第1画像データによる第1の被写体画像と第2画像データによる第2の被写体画像とを表示する表示部と、表示部に表示された第1の被写体画像に第2の被写体画像の撮像範囲を表示枠で表示させる制御部と、を備える撮像装置が開示されている。
 特開2009-232276号公報には、被写体像を撮像する撮像部を備え、隣接する撮影範囲の一部が重複するように連続的に撮影処理を行って複数の撮影画像を生成する撮像装置であって、撮像部によって撮像されている被写体像をライブビュー画像として連続表示する表示部と、ライブビュー画像の少なくとも一方向への動きを検出する動き検出部と、撮影処理の開始を指示する指示部と、指示部によって指示された開始の指示の後、ライブビュー画像上に動き検出部によって検出された動きに応じて移動する移動マークと、移動マークの移動目標位置を含み、移動目標位置近傍の所定領域を示す移動目標マークとを表示する制御を行う表示制御部と、移動目標マークが示す所定領域内に移動マークが位置した場合に、位置した状態での装置本体の動きに伴う所定の物理量の時間変換をもとに撮影可否を判定する判定部と、を備え、判定部によって撮影可と判定された場合に指示部によって指示された開始を許可し、撮影処理を行うことを特徴とする撮像装置が開示されている。
 本開示の技術に係る一つの実施形態は、測距結果及び撮像画像の何れも用いずに定められたタイミングが撮像タイミングとして報知される場合に比べ、良好なタイミングで撮像装置に対して撮像を行わせることができる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備え、プロセッサが、測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得し、測距機能による測距結果及び撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき本撮像が実行可能であると判断したことを示す撮像可能信号を設定し、ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力し、ライブビュー領域には、ライブビュー画像が表示され、ガイドビュー領域が、ワイドビュー領域及びガイド領域を含み、ワイドビュー領域には、事前撮像画像が表示され、ガイド領域には、ライブビュー領域に表示されているライブビュー画像に相当する画像領域をワイドビュー領域内で特定可能なガイド情報が表示され、プロセッサが、撮像可能信号を設定した場合に、本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が画面に含まれるデータとして画面データを出力し、撮像指示受付領域によって撮像指示が受け付けられた場合に、ライブビュー画像により示される撮像シーンについて撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力する情報処理装置である。
 本開示の技術に係る第2の態様は、事前撮像画像が、ライブビュー領域に表示されるライブビュー画像により示される撮像シーンよりも広いシーンを示す画像である、第1の態様に係る情報処理装置である。
 本開示の技術に係る第3の態様は、事前撮像画像が、複数の本撮像画像がパノラマ化されて得られた合成画像である、第2の態様に係る情報処理装置である。
 本開示の技術に係る第4の態様は、画面には、合成画像と共にワイドビュー領域を拡大させた合成画像確認ビュー領域が含まれる、第3の態様に係る情報処理装置である。
 本開示の技術に係る第5の態様は、画面には、合成画像により示される撮像領域の実空間面積が含まれる、第4の態様に係る情報処理装置である。
 本開示の技術に係る第6の態様は、プロセッサが、撮像装置に対して測距結果を取得させる指示を示す測距結果取得指示信号を出力する、第1の態様から第5の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第7の態様は、測距結果取得指示信号が、測距結果の1つとして撮像装置により撮像される第1撮像対象と撮像装置との間の距離を撮像装置に対して計測させる指示を示す信号を含む、第6の態様に係る情報処理装置である。
 本開示の技術に係る第8の態様は、撮像可能信号が、撮像装置によって撮像される第1撮像対象面と撮像装置に含まれる既定面とで成す角度が第1撮像対象面と撮像装置とが正対する正対角度であることを条件に生成される、第1の態様から第7の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第9の態様は、撮像装置が、イメージセンサを有し、既定面が、イメージセンサの撮像面に相当する面である、第8の態様に係る情報処理装置である。
 本開示の技術に係る第10の態様は、撮像可能信号が、事前撮像画像と本撮像画像又はライブビュー画像とのオーバーラップ率が既定範囲内であることを条件に生成される、第1の態様から第9の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第11の態様は、プロセッサが、測距結果に基づく情報を取得する、第1の態様から第10の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第12の態様は、測距結果に基づく情報が、撮像装置によって撮像される第2撮像対象面と撮像装置とが正対しているか否かを示す情報を含む、第11の態様に係る情報処理装置である。
 本開示の技術に係る第13の態様は、測距結果に基づく情報が、撮像装置によって撮像される第2撮像対象と撮像装置との間の距離に基づく情報を含む、第11の態様又は第12の態様に係る情報処理装置である。
 本開示の技術に係る第14の態様は、プロセッサが、第2ディスプレイに対して測距結果に基づく情報を表示させるための測距結果データを出力する、第11の態様から第13の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第15の態様は、第2ディスプレイには、測距結果に基づく情報がメッセージ形式で表示される、第14の態様に係る情報処理装置である。
 本開示の技術に係る第16の態様は、撮像装置が、ロック状態のレリーズボタンを有し、プロセッサが、撮像可能信号を設定した場合に、撮像装置に対してロック状態を解除させるためのロック解除指示信号を出力する、第1の態様から第15の態様の何れか1つの態様に係る情報処理装置である。
 本開示の技術に係る第17の態様は、第1の態様から第16の態様の何れか1つの態様に係る情報処理装置と、プロセッサに対して与える指示を受け付ける受付機器と、を備える情報処理システムである。
 本開示の技術に係る第18の態様は、撮像装置を更に備える、第17の態様に係る情報処理システムである。
 本開示の技術に係る第19の態様は、測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得すること、測距機能による測距結果及び撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき本撮像が実行可能であると判断したことを示す撮像可能信号を設定すること、並びに、ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力することを含み、ライブビュー領域には、ライブビュー画像が表示され、ガイドビュー領域は、ワイドビュー領域及びガイド領域を含み、ワイドビュー領域には、事前撮像画像が表示され、ガイド領域には、ライブビュー領域に表示されているライブビュー画像に相当する画像領域をワイドビュー領域内で特定可能なガイド情報が表示され、撮像可能信号を設定した場合に、本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が画面に含まれるデータとして画面データを出力すること、及び、撮像指示受付領域によって撮像指示が受け付けられた場合に、ライブビュー画像により示される撮像シーンについて撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力することを含む、情報処理方法である。
 本開示の技術に係る第20の態様は、コンピュータに、処理を実行させるためのプログラムであって、処理が、測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得すること、測距機能による測距結果及び撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき本撮像が実行可能であると判断したことを示す撮像可能信号を設定すること、並びに、ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力することを含み、ライブビュー領域には、ライブビュー画像が表示され、ガイドビュー領域が、ワイドビュー領域及びガイド領域を含み、ワイドビュー領域には、事前撮像画像が表示され、ガイド領域には、ライブビュー領域に表示されているライブビュー画像に相当する画像領域をワイドビュー領域内で特定可能なガイド情報が表示され、処理が、撮像可能信号を設定した場合に、本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が画面に含まれるデータとして画面データを出力すること、及び、撮像指示受付領域によって撮像指示が受け付けられた場合に、ライブビュー画像により示される撮像シーンについて撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力することを含むプログラムである。
点検システムの全体の構成の一例を示す概略構成図である。 情報処理装置の電気系のハードウェア構成の一例を示す概略構成図である。 タブレット端末の電気系のハードウェア構成の一例を示す概略構成図である。 撮像装置の光学系及び電気系のハードウェア構成の一例を示す概略構成図である。 撮像装置の電気系のハードウェア構成の一例を示す概略構成図である。 2軸旋回機構のハードウェア構成の一例を示す概略構成図である。 車両のハードウェア構成の一例を示す概略構成図である。 昇降装置のハードウェア構成の一例を示す概略構成図である。 情報処理装置のプロセッサの要部機能の一例を示すブロック図である。 撮像装置のプロセッサの要部機能の一例を示すブロック図である。 タブレット端末のプロセッサの要部機能の一例を示すブロック図である。 タブレット端末のタッチパネルディスプレイに表示される各種画面の一例を示す概略画面図である。 起動時設定画面を表示するための処理内容と起動時設定画面を用いた処理内容の一例を示す概念図である。 起動時設定画面を用いた処理内容の一例を示す概念図である。 測距指示信号の流れの一例を示す概念図である。 測距結果を用いた処理内容の一例を示す概念図である。 ライブビュー撮像指示信号の流れの一例を示す概念図である。 ライブビュー画像及び撮像開始画面データに関する処理内容の一例を示す概念図である。 撮像開始画面の一例を示す概略画面図である。 撮像開始画面の構造の一例を示す概略斜視図である。 撮像開始画面データに関する処理内容の一例を示す概念図である。 撮像開始画面に含まれる指示受付領域がタップされた場合の処理内容の一例を示す概念図である。 撮像条件確認信号に関する処理内容の一例を示す概念図である。 移動案内画面データに関する処理内容の一例を示す概念図である。 移動案内画面の一例を示す概略画面図である。 移動案内画面に含まれる指示受付領域に対して指示が与えられている態様の一例を示す概念図である。 ズーム案内画面データに関する処理内容の一例を示す概念図である。 望遠ズーム案内画面の一例を示す概略画面図である。 広角ズーム案内画面の一例を示す概略画面図である。 ズーム案内画面に含まれる指示受付領域に対して指示が与えられている態様の一例を示す概念図である。 傾き調整案内画面データに関する処理内容の一例を示す概念図である。 傾き調整案内画面の一例を示す概略画面図である。 傾き調整案内画面に含まれる指示受付領域に対して指示が与えられている態様の一例を示す概念図である。 調整結果信号が得られるまでの処理内容の一例を示す概念図である。 調整結果信号に従って駆動系及び撮像装置が制御される場合の処理内容の一例を示す概念図である。 撮像可能信号が設定される処理内容の一例を示す概念図である。 撮像許可画面データに関する処理内容の一例を示す概念図である。 撮像許可画面の一例を示す概略画面図である。 撮像許可画面をタッチパネルディスプレイに表示させる処理内容の一例を示す概念図である。 本撮像指示信号が得られるまでの処理内容の一例を示す概念図である。 本撮像指示信号の流れの一例を示す概念図である。 合成画像入り画面データが得られるまでの処理内容の一例を示す概念図である。 撮像開始画面と合成確認画面とが切り替えられる態様の一例を示す概念図である。 タブレット側処理の流れの一例を示すフローチャートである。 図44Aに示すフローチャートの続きである。 図44A及び図44Bに示すフローチャートの続きである。 点検支援処理の流れの一例を示すフローチャートである。 図45Aに示すフローチャートの続きである。 図45Bに示すフローチャートの続きである。 図45Cに示すフローチャートの続きである。 撮像装置側処理の流れの一例を示すフローチャートである。 実空間面積が画面に含まれる画面データが得られるまでの処理内容の一例を示す概念図である。 実空間面積が表示されている合成確認画面の一例を示す概略画面図である。 測距結果データが画面に含まれる画面データが得られるまでの処理内容の一例を示す概念図である。 レリーズボタンのロック状態を解除するために行われる処理内容の一例を示す概念図である。 記憶媒体に記憶されている点検支援処理プログラムが情報処理装置30のコンピュータにインストールされる態様の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る情報処理装置、情報処理システム、情報処理方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。fpsとは、“frame per second”の略称を指す。MFとは、“Manual Focus”の略称を指す。AFとは、“Auto Focus”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。CNNとは、“Convolutional Neural Network”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。TOFとは、“Time Of Flight”の略称を指す。3Dとは、“3 Dimensions”の略称を指す。5Gとは、“5th Generation”の略称を指す。本明細書の説明において、「一致」とは、完全な一致の他に、本開示の技術が属する技術分野で一般的に許容される誤差であって、本開示の技術の趣旨に反しない程度の誤差を含めた意味合いでの一致を指す。
 一例として図1に示すように、点検システム10は、情報処理システム12及び駆動系14を備えており、点検対象物16を点検する。点検とは、例えば、点検対象物16の状態の点検を指す。例えば、点検対象物16の損傷の有無及び/又は損傷の程度等が点検システム10によって点検される。点検対象物16は、本開示の技術に係る「撮像シーン」の一例である。
 駆動系14は、2軸旋回装置18、車両20、及び昇降装置22を備えている。2軸旋回装置18、車両20、及び昇降装置22の各々は、通信機能を有する。2軸旋回装置18、車両20、及び昇降装置22は、情報処理システム12と通信可能に接続されており、情報処理システム12の制御下で作動する。
 図1に示す例では、ゴンドラ付き車両24が示されている。ゴンドラ付き車両24は、車両20、昇降装置22、及びゴンドラ26を有する。車両20は、例えば、4つの車輪20Aを有する電動モータ付き四輪車である。車両20は、外部から与えられた指示に従って走行する。走行とは、例えば、前進、後退、及び蛇行を指す。
 昇降装置22は、例えば、パンタグラフ式リフトである。昇降装置22は、パンタグラフ機構28を有する。パンタグラフ機構28は、鉛直方向に沿って伸縮する機構である。車両20の上部には、パンタグラフ機構28が取り付けられている。すなわち、パンタグラフ機構28の一端部28Aが車両20の上部20Bに取り付けられている。パンタグラフ機構28の他端部28Bは、ゴンドラ26の下面26Aに取り付けられており、ゴンドラ26は、パンタグラフ機構28によって下方から支持されている。昇降装置22は、外部から与えられた指示に従って、パンタグラフ機構28を伸縮させることで、鉛直方向に沿ってゴンドラ26を昇降させる。
 なお、図1に示す例では、ゴンドラ付き車両24が示されているが、これは、あくまでも一例に過ぎず、高所作業車、橋梁点検車、昇降装置付き電動スライダ、又は昇降装置付き台車等のように、情報処理装置30、タブレット端末32、及び撮像装置34のうちの少なくとも撮像装置34を鉛直方向及び水平方向に移動させる移動装置であればよい。
 情報処理システム12は、情報処理装置30、タブレット端末32、及び撮像装置34を備えている。情報処理装置30及び撮像装置34は、ゴンドラ26に設置されている。
 情報処理装置30は、例えば、ノート型パーソナルコンピュータである。ここでは、ノート型パーソナルコンピュータを例示しているが、これは、あくまでも一例に過ぎず、デスクトップ型パーソナルコンピュータであってもよい。また、パーソナルコンピュータに限らず、サーバであってもよい。サーバは、オンプレミスで撮像装置34と共に用いられるメインフレームであってもよいし、クラウドコンピューティングによって実現される外部サーバであってもよい。また、サーバは、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現される外部サーバであってもよい。なお、図1に示す例では、情報処理装置30がゴンドラ26に設置されているが、これは、あくまでも一例に過ぎず、ゴンドラ26外に情報処理装置30が設置されていてもよい。
 撮像装置34は、例えば、レンズ交換式のデジタルカメラである。ここでは、撮像装置34として、レンズ交換式のデジタルカメラを例示しているが、これは、あくまでも一例に過ぎず、スマートデバイス又はウェアラブル端末等の各種の電子機器に内蔵されるデジタルカメラであってもよい。
 撮像装置34は、外部から与えられた指示に従って点検対象物16を撮像する。また、撮像装置34は、測距機能を有する装置である。撮像装置34は、3Dセンサ38を有しており、測距機能は3Dセンサ38によって実現される。3Dセンサ38は、外部から与えられた指示に従って、ステレオカメラ方式の測距とTOF方式の測距とを選択的に行う。本実施形態において、測距とは、撮像装置34から点検対象物16までの距離の計測を指す。なお、以下では、説明の便宜上、3Dセンサ38による測距に適用される座標系と撮像装置34による撮像に適用される座標系とを一致させるキャリブレーションが撮像装置34に対して事前に行われていることを前提として説明する。
 ゴンドラ26の柵26Bには、2軸旋回装置18が取り付けられている。撮像装置34は、2軸旋回装置18に旋回可能に設置されている。2軸旋回装置18は、外部から与えられた指示に従って作動することで、撮像装置34をパンさせたりチルトさせたりする。2軸旋回装置18は、パン機構40及びチルト機構42を有する。パン機構40は、パン軸PAを有する。チルト機構42は、チルト軸TAを有する。パン機構40は、パン軸PA周りに撮像装置34を旋回させることで撮像装置34のパンを実現しており、チルト機構42は、チルト軸TA周りに撮像装置34を旋回させることで撮像装置34のチルトを実現している。
 タブレット端末32は、タッチパネル式の受付I/Fと通信機能とを有するモバイルデバイスである。タブレット端末32は、ゴンドラ26に乗り込んでいるユーザ36によって使用される。なお、図1に示す例では、ゴンドラ26内でタブレット端末32がユーザ36によって使用されているが、ゴンドラ26外でタブレット端末32がユーザ36によって使用されてもよい。
 なお、情報処理システム12は、本開示の技術に係る「情報処理システム」の一例である。情報処理装置30は、本開示の技術に係る「情報処理装置」の一例である。タブレット端末32は、本開示の技術に係る「受付機器」の一例である。撮像装置34は、本開示の技術に係る「撮像装置」の一例である。点検対象物16は、本開示の技術に係る「第1撮像対象」及び「第2撮像対象」の一例である。
 情報処理装置30は、タブレット端末32及び撮像装置34に対して通信可能に接続されている。ユーザ36は、タブレット端末32を介して情報処理装置30に対して指示を与えることで、情報処理装置30に対して各種処理を実行させる。
 ここで、各種処理とは、例えば、撮像装置34に対して点検対象物16を撮像させる処理、撮像装置34に対して点検対象物16を測距させる処理、駆動系14を作動させる処理、及び画像処理等を指す。
 画像処理には、画面生成処理、合成処理、及び点検処理等が含まれる。画面生成処理は、例えば、用途に応じた各種画面を生成する処理である。合成処理は、例えば、撮像装置34によって撮像されることで得られた複数の撮像画像を縦方向及び横方向(例えば、鉛直方向及び水平方向)に繋ぎ合わせてパノラマ化させることによりパノラマ画像を生成する処理である。
 点検処理には、例えば、チョーク検出処理及び損傷検出処理が含まれる。チョーク検出処理及び損傷検出処理では、例えば、画像処理によって得られたパノラマ画像が用いられる。チョーク検出処理は、パノラマ画像に像として含まれる点検対象物16にチョークで描かれたチョーク痕を検出する処理である。損傷検出処理は、パノラマ画像に像として含まれる点検対象物16の損傷(例えば、ひび割れ及び/又は錆等)を検出する処理である。チョーク検出処理は、例えば、テンプレートマッチング方式の被写体認識処理によって実現され、損傷検出処理は、例えば、AI方式の被写体認識処理によって実現される。
 このように、点検処理では、被写体認識処理が用いられるので、点検処理の精度を高めるためには、パノラマ画像に欠落箇所がないことが好ましい。欠落箇所としては、例えば、複数の撮像画像の繋ぎ合わせが失敗することに起因して生じる隙間(すなわち、空白領域)が挙げられる。
 複数の撮像画像を隙間なく繋ぎ合わせるためには、隣接する撮像画像間で、傾き及びサイズを合わせ、かつ、繋ぎ合わせ方向(例えば、縦方向及び横方向)で位置ずれさせることなく既定量(例えば、1フレームのうちの30%程度)をオーバーラップさせた上で撮像装置34によって1フレーム毎の撮像が行われるようにすることが好ましい。オーバーラップさせる理由の1つとしては、繋ぎ合わせの処理では、隣接する撮像画像間で一致する特徴点が参照されて繋ぎ合わされるので、そのために、ある程度の個数の特徴点が必要だからである。
 傾き、サイズ、及びオーバーラップ量について、欠落箇所がないパノラマ画像を得る条件として予め定められた条件を満たす複数の撮像画像を得るためには、良好なタイミング(すなわち、傾き、サイズ、及びオーバーラップ量について、欠落箇所がないパノラマ画像を得る条件として予め定められた条件を満たしたタイミング)で撮像装置34に対して撮像を行わせることが必要となる。
 このように、良好なタイミングで撮像装置34に対して撮像を行わせるために、点検システム10は、一例として図2~図43に示す構成を備えている。
 一例として図2に示すように、情報処理装置30は、コンピュータ44、受付デバイス46、ディスプレイ48、外部I/F50、第1通信I/F52、第2通信I/F54、第3通信I/F56、第4通信I/F58、及び第5通信I/F60を備えている。
 コンピュータ44は、本開示の技術に係る「コンピュータ」の一例である。コンピュータ44は、プロセッサ62、ストレージ64、及びRAM66を備えている。プロセッサ62は、本開示の技術に係る「プロセッサ」の一例であり、RAM66は、本開示の技術に係る「メモリ」の一例である。
 プロセッサ62、ストレージ64、RAM66、外部I/F50、第1通信I/F52、第2通信I/F54、第3通信I/F56、第4通信I/F58、及び第5通信I/F60は、バス68に接続されている。図2に示す例では、図示の都合上、バス68として1本のバスが図示されているが、複数本のバスであってもよい。バス68は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 プロセッサ62は、例えば、CPU及びGPUを有しており、情報処理装置30の全体を制御する。GPUは、CPUの制御下で動作し、画像処理の実行を担う。
 ストレージ64は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。ストレージ64としては、例えば、HDD及びSSDが挙げられる。なお、HDD及びSSDは、あくまでも一例に過ぎず、HDD及び/又はSSDに代えて、或いは、HDD及び/又はSSDと共に、フラッシュメモリ、磁気抵抗メモリ、及び/又は強誘電体メモリを用いてもよい。
 RAM66は、一時的に情報が記憶されるメモリであり、プロセッサ62によってワークメモリとして用いられる。RAM66としては、例えば、DRAM及び/又はSRAM等が挙げられる。
 受付デバイス46は、キーボード、マウス、及びタッチパネル等を有しており、ユーザ36(図1参照)からの指示を受け付ける。ディスプレイ48は、プロセッサ62の制御下で、各種情報(例えば、画像及び文字等)を表示する。ディスプレイ48としては、例えば、ELディスプレイ(例えば、有機ELディスプレイ又は無機ELディスプレイ)が挙げられる。なお、ELディスプレイに限らず、液晶ディプレイ等の他の種類のディスプレイであってもよい。
 外部I/F50は、情報処理装置30の外部に存在する装置(例えば、スマートデバイス、パーソナルコンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等)との間の各種情報の授受を司る。外部I/F50の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナルコンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の各種装置(図示省略)が直接的又は間接的に接続される。
 第1通信I/F52は、タブレット端末32と通信可能に接続されている。ここでは、第1通信I/F52が既定の無線通信規格でタブレット端末32と無線通信可能に接続されている。既定の無線通信規格とは、例えば、Bluetooth(登録商標)が挙げられる。なお、これ以外の無線通信規格(例えば、Wi-Fi又は5G等)であってもよい。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。第1通信I/F52は、タブレット端末32との間の情報の授受を司る。例えば、第1通信I/F52は、プロセッサ62からの要求に応じた情報をタブレット端末32に送信する。また、第1通信I/F52は、タブレット端末32から送信された情報を受信し、受信した情報を、バス68を介してプロセッサ62に出力する。
 第2通信I/F54は、撮像装置34と通信可能に接続されている。ここでは、第2通信I/F54が既定の無線通信規格でタブレット端末32と無線通信可能に接続されている。また、ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。第2通信I/F54は、撮像装置34との間の情報の授受を司る。例えば、第2通信I/F54は、プロセッサ62からの要求に応じた情報を撮像装置34に送信する。また、第2通信I/F54は、撮像装置34から送信された情報を受信し、受信した情報を、バス68を介してプロセッサ62に出力する。
 第3通信I/F56は、2軸旋回装置18と通信可能に接続されている。ここでは、第3通信I/F56が既定の無線通信規格で2軸旋回装置18と無線通信可能に接続されている。また、ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。第3通信I/F56は、2軸旋回装置18との間の情報の授受を司る。例えば、第3通信I/F56は、プロセッサ62からの要求に応じた情報を2軸旋回装置18に送信する。また、第3通信I/F56は、2軸旋回装置18から送信された情報を受信し、受信した情報を、バス68を介してプロセッサ62に出力する。
 第4通信I/F58は、車両20と通信可能に接続されている。ここでは、第4通信I/F58が既定の無線通信規格で車両20と無線通信可能に接続されている。また、ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。第4通信I/F58は、車両20との間の情報の授受を司る。例えば、第4通信I/F58は、プロセッサ62からの要求に応じた情報を車両20に送信する。また、第4通信I/F58は、車両20から送信された情報を受信し、受信した情報を、バス68を介してプロセッサ62に出力する。
 第5通信I/F60は、昇降装置22と通信可能に接続されている。ここでは、第5通信I/F60が既定の無線通信規格で昇降装置22と無線通信可能に接続されている。また、ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。第5通信I/F60は、昇降装置22との間の情報の授受を司る。例えば、第5通信I/F60は、プロセッサ62からの要求に応じた情報を車両20に送信する。また、第5通信I/F60は、昇降装置22から送信された情報を受信し、受信した情報を、バス68を介してプロセッサ62に出力する。
 一例として図3に示すように、タブレット端末32は、コンピュータ70、タッチパネルディスプレイ72、外部I/F74、及び通信I/F76を備えている。
 コンピュータ70は、プロセッサ78、ストレージ80、及びRAM82を備えている。プロセッサ78、ストレージ80、及びRAM82は、バス84に接続されている。図3に示す例では、図示の都合上、バス84として1本のバスが図示されているが、複数本のバスであってもよい。バス84は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 プロセッサ78は、例えば、CPU及びGPUを有しており、タブレット端末32の全体を制御する。GPUは、CPUの制御下で動作し、画像処理の実行を担う。
 ストレージ80は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。ストレージ80としては、例えば、フラッシュメモリ及びSSDが挙げられる。なお、フラッシュメモリ及びSSDは、あくまでも一例に過ぎず、フラッシュメモリ及び/又はSSDに代えて、或いは、フラッシュメモリ及び/又はSSDと共に、HDD、磁気抵抗メモリ、及び/又は強誘電体メモリを用いてもよい。
 RAM82は、一時的に情報が記憶されるメモリであり、プロセッサ78によってワークメモリとして用いられる。RAM82としては、例えば、DRAM及び/又はSRAM等が挙げられる。
 タッチパネルディスプレイ72は、タッチパネル86及びディスプレイ88を有する。ディスプレイ88の一例としては、ELディスプレイが挙げられる。なお、ELディスプレイに限らず、液晶ディプレイ等の他の種類のディスプレイであってもよい。
 タッチパネルディスプレイ72は、ディスプレイ88の表示領域に対してタッチパネル86を重ね合わせることによって、又は、ディスプレイ88の内部にタッチパネル機能が内蔵されたインセル型にすることによって形成されている。なお、インセル型は、あくまでも一例に過ぎず、アウトセル型又はオンセル型であってもよい。
 外部I/F74は、タブレット端末32の外部に存在する装置(例えば、スマートデバイス、パーソナルコンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等)との間の各種情報の授受を司る。外部I/F74の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナルコンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の各種装置(図示省略)が直接的又は間接的に接続される。
 通信I/F76は、情報処理装置30と通信可能に接続されている。ここでは、通信I/F76が既定の無線通信規格で情報処理装置30の第1通信I/F52と無線通信可能に接続されている。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。通信I/F76は、情報処理装置30のプロセッサ62とタブレット端末32のプロセッサ78との間の情報の授受を司る。例えば、通信I/F76は、プロセッサ78からの要求に応じた情報を情報処理装置30に送信する。また、通信I/F76は、情報処理装置30のプロセッサ62から第1通信I/F52を介して送信された情報を受信し、受信した情報を、バス84を介してプロセッサ78に出力する。
 タブレット端末32は、タッチパネルディスプレイ72によってユーザ36(図1参照)から受け付けられた指示に応じた処理を実行する。例えば、タブレット端末32は、タッチパネルディスプレイ72によって受け付けられた指示に従って、情報処理装置30との間で各種情報の授受を行う。例えば、タブレット端末32は、情報処理装置30から送信された画像を受信し、受信した画像をタッチパネルディスプレイ72に対して表示させる。
 一例として図4に示すように、撮像装置34は、交換レンズ90と撮像装置本体92とを備えている。交換レンズ90は、撮像装置本体92に交換可能に装着される。
 撮像装置本体92は、イメージセンサ94を備えている。イメージセンサ94は、CMOSイメージセンサである。イメージセンサ94は、被写体(例えば、図1に示す点検対象物16)を撮像する。交換レンズ90が撮像装置本体92に装着された場合に、被写体を示す被写体光は、交換レンズ90を透過してイメージセンサ94に結像され、被写体の画像を示す画像データがイメージセンサ94によって生成される。
 なお、ここでは、イメージセンサ94としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、他のイメージセンサであってもよい。
 イメージセンサ94は、光電変換素子96を備えている。光電変換素子96は、受光面96Aを有する。光電変換素子96は、受光面96Aの中心と光軸OAとが一致するように撮像装置本体92内に配置されている。光電変換素子96は、マトリクス状に配置された複数の感光画素を有しており、受光面96Aは、複数の感光画素によって形成されている。感光画素は、フォトダイオード(図示省略)を有する物理的な画素であり、受光した光を光電変換し、受光量に応じた電気信号を出力する。
 交換レンズ90は、撮像レンズ98を備えている。撮像レンズ98は、対物レンズ98A、フォーカスレンズ98B、ズームレンズ98C、及び絞り98Dを有する。対物レンズ98A、フォーカスレンズ98B、ズームレンズ98C、及び絞り98Dは、被写体側(物体側)から撮像装置本体92側(像側)にかけて、光軸OAに沿って、対物レンズ98A、フォーカスレンズ98B、ズームレンズ98C、及び絞り98Dの順に配置されている。
 交換レンズ90は、制御装置102、第1アクチュエータ104、第2アクチュエータ106、及び第3アクチュエータ108を備えている。制御装置102は、撮像装置本体92からの指示に従って交換レンズ90の全体を制御する。制御装置102は、例えば、CPU、NVM、及びRAM等を含むコンピュータを有する装置である。なお、ここでは、コンピュータを例示しているが、これは、あくまでも一例に過ぎず、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、制御装置102として、例えば、ハードウェア構成及びソフトウェア構成の組み合わせによって実現される装置を用いてよい。
 第1アクチュエータ104は、フォーカス用スライド機構(図示省略)及びフォーカス用モータ(図示省略)を備えている。フォーカス用スライド機構には、光軸OAに沿ってスライド可能にフォーカスレンズ98Bが取り付けられている。また、フォーカス用スライド機構にはフォーカス用モータが接続されており、フォーカス用スライド機構は、フォーカス用モータの動力を受けて作動することでフォーカスレンズ98Bを光軸OAに沿って移動させる。
 第2アクチュエータ106は、ズーム用スライド機構(図示省略)及びズーム用モータ(図示省略)を備えている。ズーム用スライド機構には、光軸OAに沿ってスライド可能にズームレンズ98Cが取り付けられている。また、ズーム用スライド機構にはズーム用モータが接続されており、ズーム用スライド機構は、ズーム用モータの動力を受けて作動することでズームレンズ98Cを光軸OAに沿って移動させる。
 なお、ここでは、フォーカス用スライド機構とズーム用スライド機構とが別々に設けられている形態例を挙げているが、これはあくまでも一例に過ぎず、フォーカス及びズームを共に実現可能な一体型のスライド機構であってもよい。また、この場合、フォーカス用モータとズーム用モータとを用いずに、1つのモータによって生成された動力がスライド機構に伝達されるようにすればよい。
 第3アクチュエータ108は、動力伝達機構(図示省略)及び絞り用モータ(図示省略)を備えている。絞り98Dは、開口98D1を有しており、開口98D1の大きさが可変な絞りである。開口98D1は、複数枚の絞り羽根98D2によって形成されている。複数枚の絞り羽根98D2は、動力伝達機構に連結されている。また、動力伝達機構には絞り用モータが接続されており、動力伝達機構は、絞り用モータの動力を複数枚の絞り羽根98D2に伝達する。複数枚の絞り羽根98D2は、動力伝達機構から伝達される動力を受けて作動することで開口98D1の大きさを変化させる。絞り98Dは、開口98D1の大きさを変化させることで露出を調節する。
 フォーカス用モータ、ズーム用モータ、及び絞り用モータは、制御装置102に接続されており、制御装置102によってフォーカス用モータ、ズーム用モータ、及び絞り用モータの各駆動が制御される。なお、本実施形態では、フォーカス用モータ、ズーム用モータ、及び絞り用モータの一例として、ステッピングモータが採用されている。従って、フォーカス用モータ、ズーム用モータ、及び絞り用モータは、制御装置102からの命令によりパルス信号に同期して動作する。また、ここでは、フォーカス用モータ、ズーム用モータ、及び絞り用モータが交換レンズ90に設けられている例が示されているが、これは、あくまでも一例に過ぎず、フォーカス用モータ、ズーム用モータ、及び絞り用モータのうちの少なくとも1つが撮像装置本体92に設けられていてもよい。なお、交換レンズ90の構成物及び/又は動作方法は、必要に応じて変更可能である。
 交換レンズ90は、第1センサ(図示省略)を備えている。第1センサは、フォーカスレンズ98Bの光軸OA上での位置を検出する。第1センサの一例としては、ポテンショメータが挙げられる。第1センサによる検出結果は、制御装置102によって取得され、撮像装置本体92に出力される。撮像装置本体92は、第1センサによる検出結果に基づいてフォーカスレンズ98Bの光軸OA上での位置を調節する。
 交換レンズ90は、第2センサ(図示省略)を備えている。第2センサは、ズームレンズ98Cの光軸OA上での位置を検出する。第2センサの一例としては、ポテンショメータが挙げられる。第2センサによる検出結果は、制御装置102によって取得され、撮像装置本体92に出力される。撮像装置本体92は、第2センサによる検出結果に基づいてズームレンズ98Cの光軸OA上での位置を調節する。
 交換レンズ90は、第3センサ(図示省略)を備えている。第3センサは、開口98D1の大きさを検出する。第3センサの一例としては、ポテンショメータが挙げられる。第3センサによる検出結果は、制御装置102によって取得され、撮像装置本体92に出力される。撮像装置本体92は、第3センサによる検出結果に基づいて開口98D1の大きさを調節する。
 撮像装置34では、撮像装置本体92に対して与えられた指示に従ってMFモードとAFモードとが選択的に設定される。MFモードは、手動でピントを合わせる動作モードである。MFモードでは、例えば、ユーザによってフォーカスリング(図示省略)等が操作されることで、フォーカスリング等の操作量に応じた移動量でフォーカスレンズ98Bが光軸OAに沿って移動し、これによって焦点が調節される。
 AFモードでは、撮像装置本体92が被写体距離に応じた合焦位置の演算を行い、演算して得た合焦位置に向けてフォーカスレンズ98Bを移動させることで、焦点を調節する。ここで、合焦位置とは、ピントが合っている状態でのフォーカスレンズ98Bの光軸OA上での位置を指す。なお、以下では、説明の便宜上、フォーカスレンズ98Bを合焦位置に合わせる制御を「AF制御」とも称する。
 撮像装置本体92は、イメージセンサ94、コントローラ110、画像メモリ112、UI系デバイス114、外部I/F116、通信I/F118、光電変換素子ドライバ120、メカニカルシャッタドライバ122、メカニカルシャッタアクチュエータ124、メカニカルシャッタ126、及び入出力インタフェース128を備えている。また、イメージセンサ94は、光電変換素子96及び信号処理回路130を備えている。
 入出力インタフェース128には、コントローラ110、画像メモリ112、UI系デバイス114、外部I/F116、通信I/F118、光電変換素子ドライバ120、メカニカルシャッタドライバ122、及び信号処理回路130が接続されている。また、入出力インタフェース128には、交換レンズ90の制御装置102も接続されている。
 コントローラ110は、プロセッサ132、ストレージ134、及びRAM136を備えている。プロセッサ132、ストレージ134、及びRAM136は、バス138を介して接続されており、バス138は入出力インタフェース128に接続されている。
 なお、図4に示す例では、図示の都合上、バス138として1本のバスが図示されているが、複数本のバスであってもよい。バス138は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 プロセッサ132は、例えば、CPU及びGPUを有しており、撮像装置34の全体を制御する。GPUは、CPUの制御下で動作し、画像処理の実行を担う。
 ストレージ134は、非一時的記憶媒体であり、各種パラメータ及び各種プログラムを記憶している。例えば、ストレージ134は、EEPROMである。但し、これは、あくまでも一例に過ぎず、EEPROMに代えて、又は、EEPROMと共に、HDD、及び/又はSSD等をストレージ134として適用してもよい。また、RAM136は、各種情報を一時的に記憶し、ワークメモリとして用いられる。
 プロセッサ132は、ストレージ134から必要なプログラムを読み出し、読み出したプログラムをRAM136で実行する。プロセッサ132は、RAM136上で実行するプログラムに従って撮像装置34の全体を制御する。図2に示す例では、画像メモリ112、UI系デバイス114、外部I/F116、通信I/F118、光電変換素子ドライバ120、メカニカルシャッタドライバ122、及び制御装置102がプロセッサ132によって制御される。
 光電変換素子96には、光電変換素子ドライバ120が接続されている。光電変換素子ドライバ120は、光電変換素子96によって行われる撮像のタイミングを規定する撮像タイミング信号を、プロセッサ132からの指示に従って光電変換素子96に供給する。光電変換素子96は、光電変換素子ドライバ120から供給された撮像タイミング信号に従って、リセット、露光、及び電気信号の出力を行う。撮像タイミング信号としては、例えば、垂直同期信号及び水平同期信号が挙げられる。
 交換レンズ90が撮像装置本体92に装着された場合、撮像レンズ98に入射された被写体光は、撮像レンズ98によって受光面96Aに結像される。光電変換素子96は、光電変換素子ドライバ120の制御下で、受光面96Aによって受光された被写体光を光電変換し、被写体光の光量に応じた電気信号を、被写体光を示すアナログ画像データとして信号処理回路130に出力する。具体的には、信号処理回路130が、露光順次読み出し方式で、光電変換素子96から1フレーム単位で且つ水平ライン毎にアナログ画像データを読み出す。
 信号処理回路130は、アナログ画像データをデジタル化することでデジタル画像データを生成する。なお、以下では、説明の便宜上、撮像装置本体92での内部処理の対象とされるデジタル画像データと、デジタル画像データにより示される画像(すなわち、デジタル画像データに基づいて可視化されてディスプレイ等に表示される画像)とを区別して説明する必要がない場合、「撮像画像127」と称する。
 メカニカルシャッタ126は、フォーカルプレーンシャッタであり、絞り98Dと受光面96Aとの間に配置されている。メカニカルシャッタ126は、先幕(図示省略)及び後幕(図示省略)を備えている。先幕及び後幕の各々は、複数枚の羽根を備えている。先幕は、後幕よりも被写体側に配置されている。
 メカニカルシャッタアクチュエータ124は、リンク機構(図示省略)、先幕用ソレノイド(図示省略)、及び後幕用ソレノイド(図示省略)を有するアクチュエータである。先幕用ソレノイドは、先幕の駆動源であり、リンク機構を介して先幕に機械的に連結されている。後幕用ソレノイドは、後幕の駆動源であり、リンク機構を介して後幕に機械的に連結されている。メカニカルシャッタドライバ122は、プロセッサ132からの指示に従って、メカニカルシャッタアクチュエータ124を制御する。
 先幕用ソレノイドは、メカニカルシャッタドライバ122の制御下で動力を生成し、生成した動力を先幕に付与することで先幕の巻き上げ及び引き下ろしを選択的に行う。後幕用ソレノイドは、メカニカルシャッタドライバ122の制御下で動力を生成し、生成した動力を後幕に付与することで後幕の巻き上げ及び引き下ろしを選択的に行う。撮像装置34では、先幕の開閉と後幕の開閉とがプロセッサ132によって制御されることで、光電変換素子96に対する露光量が制御される。
 撮像装置34では、ライブビュー画像用撮像と、静止画像及び/又は動画像を記録するための記録画像用の撮像とが露光順次読み出し方式(ローリングシャッタ方式)で行われる。イメージセンサ94は、電子シャッタ機能を有しており、ライブビュー画像用撮像は、メカニカルシャッタ126を全開状態にしたまま作動させずに、電子シャッタ機能を働かせることで実現される。
 これに対し、本露光を伴う撮像、すなわち、静止画像用の撮像(以下、「本撮像」とも称する)は、電子シャッタ機能を働かせ、かつ、メカニカルシャッタ126を先幕閉状態から後幕閉状態に遷移させるようにメカニカルシャッタ126を作動させることで実現される。
 画像メモリ112には、信号処理回路130によって生成された撮像画像127が記憶される。すなわち、信号処理回路130が画像メモリ112に対して撮像画像127を記憶させる。プロセッサ132は、画像メモリ112から撮像画像127を取得し、取得した撮像画像127を用いて各種処理を実行する。
 UI系デバイス114は、ディスプレイ140を備えており、プロセッサ132は、ディスプレイ140に対して各種情報を表示させる。また、UI系デバイス114は、受付デバイス142を備えている。受付デバイス142は、タッチパネル144及びレリーズボタン146等を備えている。
 レリーズボタン146は、撮像準備指示部及び撮像指示部として機能し、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能である。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 外部I/F116は、撮像装置34の外部に存在する装置(以下、「外部装置」とも称する)との間の各種情報の授受を司る。外部I/F116の一例としては、USBインタフェースが挙げられる。USBインタフェースには、3Dセンサ38(図1及び図5参照)、スマートデバイス、パーソナルコンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接的又は間接的に接続される。
 通信I/F118は、撮像装置34による情報処理装置30に対する情報の送受信を制御する。一例として図5に示すように、通信I/F118は、情報処理装置30と通信可能に接続されている。ここでは、通信I/F118が既定の無線通信規格で情報処理装置30の第2通信I/F54と無線通信可能に接続されている。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。通信I/F118は、情報処理装置30のプロセッサ62と撮像装置34のプロセッサ132との間の情報の授受を司る。例えば、通信I/F118は、プロセッサ132からの要求に応じた情報を情報処理装置30に送信する。また、通信I/F118は、情報処理装置30のプロセッサ62から第2通信I/F54を介して送信された情報を受信し、受信した情報を、バス138を介してプロセッサ132に出力する。
 プロセッサ132は、情報処理装置30からの指示に従って、3Dセンサ38を作動させることで、3Dセンサ38に対して測距を行わせる。すなわち、プロセッサ132は、3Dセンサ38に対して点検対象物16(図1参照)までの距離を計測させる。測距範囲、すなわち、点検対象物16のうちの3Dセンサ38によって測距される範囲は、撮像装置34によって撮像される撮像範囲(例えば、1フレーム分の撮像範囲)に相当する範囲である。プロセッサ132は、3Dセンサ38によって得られた測距結果150を取得する。測距結果150には、点検対象物16と撮像装置34との間の距離に基づく情報として距離画像148が含まれている。距離画像148は、3Dセンサ38によって、測距結果に基づいて生成される。
 距離画像148は、撮像装置34から測距範囲内の複数の測距ポイントまでの距離を示す画像である。また、距離画像148は、マトリクス状に配列された複数の画素を有しており、各画素が測距によって得られた距離に応じた色で表現されている。複数の画素には、撮像装置34から測距範囲内の測距ポイントまでの距離を示す距離データが付与されており、距離データにより示される距離に応じた色が付与されている。距離に応じた色は、一定の色相角(ここでは、一例として、0度以上240度以下の色相角)内の色である。例えば、画素に付与された距離データにより示される距離が撮像装置34から離れているほど画素に対して青に近くなる色が付与され、画素に付与された距離データにより示される距離が撮像装置34に近いほど画素に対して赤に近くなる色が付与される。
 一例として図6に示すように、駆動系14の1つである2軸旋回装置18は、パン機構40、チルト機構42、コントローラ152、及び通信I/F154を備えている。
 コントローラ152は、2軸旋回装置18の全体を制御する。コントローラ152の一例としては、プロセッサ(例えば、CPU)、ストレージ(例えば、EEPROM)、及びRAMを有するコンピュータが挙げられる。コンピュータは、あくまでも一例に過ぎず、コンピュータに代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータに代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 通信I/F154は、コントローラ152に接続されている。また、通信I/F154は、情報処理装置30と通信可能に接続されている。ここでは、通信I/F154が既定の無線通信規格で情報処理装置30の第3通信I/F56と無線通信可能に接続されている。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。通信I/F154は、2軸旋回装置18のコントローラ152と情報処理装置30のプロセッサ62との間の情報の授受を司る。例えば、通信I/F154は、コントローラ152からの要求に応じた情報を情報処理装置30に送信する。また、通信I/F154は、情報処理装置30のプロセッサ62から第3通信I/F56を介して送信された情報を受信し、受信した情報をコントローラ152に出力する。
 パン機構40は、パン用モータ40Aを有する。パン用モータ40Aは、コントローラ152に接続されており、コントローラ152の制御下で駆動する。パン機構40は、パン用モータ40Aの駆動力をパン軸PA(図1参照)周りの動力として撮像装置34に伝達させることで撮像装置34をパンさせる。
 チルト機構42は、チルト用モータ42Aを有する。チルト用モータ42Aは、コントローラ152に接続されており、コントローラ152の制御下で駆動する。チルト機構42は、チルト用モータ42Aの駆動力をチルト軸TA(図1参照)周りの動力として撮像装置34に伝達させることで撮像装置34をチルトさせる。
 一例として図7に示すように、駆動系14の1つである車両20は、コントローラ156、通信I/F158、走行用モータ160、及び動力伝達機構162を備えている。
 コントローラ156は、車両20の全体を制御する。コントローラ156の一例としては、プロセッサ(例えば、CPU)、ストレージ(例えば、EEPROM)、及びRAMを有するコンピュータが挙げられる。コンピュータは、あくまでも一例に過ぎず、コンピュータに代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータに代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 通信I/F158は、コントローラ156に接続されている。また、通信I/F158は、情報処理装置30と通信可能に接続されている。ここでは、通信I/F158が既定の無線通信規格で情報処理装置30の第4通信I/F58と無線通信可能に接続されている。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。通信I/F158は、車両20のコントローラ156と情報処理装置30のプロセッサ62との間の情報の授受を司る。例えば、通信I/F158は、コントローラ156からの要求に応じた情報を情報処理装置30に送信する。また、通信I/F158は、情報処理装置30のプロセッサ62から第4通信I/F58を介して送信された情報を受信し、受信した情報をコントローラ156に出力する。
 走行用モータ160は、コントローラ156に接続されており、コントローラ156の制御下で駆動する。動力伝達機構162は、走行用モータ160及び複数の車輪20A(例えば、2つの前輪、2つの後輪、又は4つの車輪20A)に接続されている。動力伝達機構162は、走行用モータ160の駆動力を複数の車輪20Aに伝達することで複数の車輪20Aを回転させる。複数の車輪20Aが回転すると、車両20は走行する。なお、車両20は、複数の車輪20Aの向きを変える向き変更機構(図示省略)、及び向き変更機構に対して動力を付与する向き変更用モータ(図示省略)も備えており、向き変更用モータの駆動は、コントローラ156によって制御される。情報処理装置30は、コントローラ156を介して走行用モータ160及び向き変更用モータの駆動を制御することで車両20の走行を制御する。
 一例として図8に示すように、駆動系14の1つである昇降装置22は、コントローラ164、通信I/F166、昇降用モータ168、及び動力伝達機構170を備えている。
 コントローラ164は、昇降装置22の全体を制御する。コントローラ164の一例としては、プロセッサ(例えば、CPU)、ストレージ(例えば、EEPROM)、及びRAMを有するコンピュータが挙げられる。コンピュータは、あくまでも一例に過ぎず、コンピュータに代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータに代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 通信I/F166は、コントローラ164に接続されている。また、通信I/F166は、情報処理装置30と通信可能に接続されている。ここでは、通信I/F166が既定の無線通信規格で情報処理装置30の第5通信I/F60と無線通信可能に接続されている。ここでは、無線通信を例示しているが、本開示の技術は、これに限定されず、無線通信に代えて有線通信を適用してもよい。通信I/F166は、昇降装置22のコントローラ164と情報処理装置30のプロセッサ62との間の情報の授受を司る。例えば、通信I/F166は、コントローラ164からの要求に応じた情報を情報処理装置30に送信する。また、通信I/F166は、情報処理装置30のプロセッサ62から第5通信I/F60を介して送信された情報を受信し、受信した情報をコントローラ164に出力する。
 昇降用モータ168は、コントローラ164に接続されており、コントローラ164の制御下で駆動する。動力伝達機構170は、昇降用モータ168及びパンタグラフ機構28に接続されている。動力伝達機構170は、昇降用モータ168の駆動力をパンタグラフ機構28に伝達することでパンタグラフ機構28を鉛直方向に沿って伸縮させる。パンタグラフ機構28が鉛直方向に沿って伸縮することによってゴンドラ26(図1参照)の昇降が実現される。
 一例として図9に示すように、情報処理装置30のストレージ64には、点検支援処理プログラム172が記憶されている。点検支援処理プログラム172は、本開示の技術に係る「プログラム」の一例である。
 プロセッサ62は、ストレージ64から点検支援処理プログラム172を読み出し、読み出した点検支援処理プログラム172をRAM66上で実行する。プロセッサ62は、RAM66上で実行する点検支援処理プログラム172に従って点検支援処理を行う(図45A~図45D参照)。プロセッサ62は、点検支援処理プログラム172を実行することで、受信部62A、判定部62B、撮像装置制御部62C、画面生成部62D、算出部62E、駆動系制御部62F、取得部62G、送信部62H、合成部62I、及び信号生成部62Jとして動作する。
 一例として図10に示すように、撮像装置34のストレージ134には、撮像装置側処理プログラム174が記憶されている。プロセッサ132は、ストレージ134から撮像装置側処理プログラム174を読み出し、読み出した撮像装置側処理プログラム174をRAM136上で実行する。プロセッサ132は、RAM136上で実行する撮像装置側処理プログラム174に従って撮像装置側処理を行う(図45参照)。プロセッサ132は、撮像装置側処理プログラム174を実行することで、受信部132A、撮像系制御部132B、測距系制御部132C、及び送信部132Dとして動作する。
 一例として図11に示すように、タブレット端末32のストレージ80には、タブレット側処理プログラム176が記憶されている。プロセッサ78は、ストレージ80からタブレット側処理プログラム176を読み出し、読み出したタブレット側処理プログラム176をRAM82上で実行する。プロセッサ78は、RAM82上で実行するタブレット側処理プログラム176に従ってタブレット側処理を行う(図44A~図44C参照)。プロセッサ78は、タブレット側処理プログラム176を実行することで、表示制御部78A、判定部78B、信号生成部78C、送信部78D、受信部78E、及び調整値算出部78Fとして動作する。
 タブレット端末32において、プロセッサ78によってタブレット側処理が行われると、一例として図12に示すように、タブレット端末32のタッチパネルディスプレイ72には、起動時設定画面178、撮像開始画面180、撮像条件調整画面182、合成確認画面184、撮像許可画面186、及び設定画面188が選択的に表示される。
 起動時設定画面178は、タブレット側処理が実行されることによってタッチパネルディスプレイ72に最初に表示される。起動時設定画面178は、ユーザ36(図1参照)に対してチョーク検出処理の実行と損傷検出処理の実行とを選択させたり、ユーザ36に対して検出対象とされる損傷等の大きさを指定させたり、撮像装置34に対して撮像を開始させる指示を受け付けたりする画面である。
 撮像開始画面は、チョーク検出処理及び/又は損傷検出処理で用いられるパノラマ画像用の撮像を開始する指示を受け付ける画面である。撮像条件調整画面182は、撮像装置34の撮像条件を調整する指示を受け付ける画面である。撮像条件調整画面182は、移動案内画面190、望遠ズーム案内画面192、広角ズーム案内画面194、及び傾き調整案内画面196に類別される。移動案内画面190は、撮像装置34による撮像範囲の移動方向の調整をユーザ36に対して案内する画面である。望遠ズーム案内画面192は、撮像装置34による光学式の望遠ズームの設定をユーザ36に対して案内する画面である。広角ズーム案内画面194は、撮像装置34による光学式の広角ズームの設定をユーザ36に対して案内する画面である。傾き調整案内画面196は、撮像画像127の傾きの調整をユーザ36に対して案内する画面である。
 合成確認画面184は、ユーザ36に対してパノラマ画像を確認させる画面である。撮像許可画面186は、本撮像が許可されたことをユーザ36に対して報知し、かつ、本撮像を開始する指示を受け付ける画面である。設定画面188は、各種設定(例えば、チョーク検出処理から損傷検出処理への変更、損傷検出処理からチョーク検出処理への変更、及び/又は、検出対象とされる損傷等の大きさの変更等)の指示を受け付ける画面である。
 以下、情報処理システム12によって、起動時設定画面178、撮像開始画面180、撮像条件調整画面182、合成確認画面184、撮像許可画面186、及び設定画面188が生成される処理の一例について説明する。
 一例として図13に示すように、タブレット端末32において、表示制御部78Aは、起動時設定画面178を生成し、生成した起動時設定画面178をタッチパネルディスプレイ72に表示させる。起動時設定画面178には、第1ボタン178A、第2ボタン178B、複数の大きさ指定ボックス178C、及び撮像開始キー178Dが表示されている。第1ボタン178Aは、スライド式のソフトキーであり、第1ボタン178Aをスライドさせることで、オンとオフとが切り替えられる。第1ボタン178Aがオンされると、チョーク検出処理が実行され、第1ボタン178Aがオフされると、チョーク検出処理は実行されない。第2ボタン178Bは、スライド式のソフトキーである。第2ボタン178Bがオンされると、損傷検出処理が実行され、第2ボタン178Bがオフされると、損傷検出処理は実行されない。複数の大きさ指定ボックス178Cは、検出対象とされる損傷等の大きさを指定するために用いられる。複数の大きさ指定ボックス178Cには、検出対象とされる損傷等の大きさとして異なる大きさの範囲と、ラジオボタンとが表示されている。複数の大きさ指定ボックス178Cのうちの何れかのラジオボタンがオンされると、ラジオボタンがオンされた大きさ指定ボックス178Cに表示されている大きさの範囲の損傷等が検出対象として設定される。撮像開始キー178Dは、撮像装置34に対して撮像を開始させる指示を受け付ける。撮像開始キー178Dがオンされることによって、撮像装置34に対して撮像を開始させる指示が受け付けられる。
 判定部78Bは、撮像開始キー178Dがオンされたか否かを判定する。一例として図14に示すように、撮像開始キー178Dがオンされると、信号生成部78Cは、ライブビュー撮像指示信号を生成し、かつ、測距指示信号を生成する。ライブビュー撮像指示信号は、撮像装置34に対してライブビュー画像用撮像の開始を指示する信号であり、測距指示信号は、撮像装置34に対して測距の開始を指示する信号、すなわち、撮像装置34に対して測距結果を取得させる指示を示す信号である。送信部78Dは、信号生成部78Cによって生成されたライブビュー撮像指示信号及び測距指示信号を情報処理装置30に送信する。
 一例として図15に示すように、情報処理装置30において、受信部62Aは、タブレット端末32の送信部78Dから送信された測距指示信号を受信する。判定部62Bは、受信部62Aで受信された信号が測距指示信号であるか否かを判定する。受信部62Aで受信された信号が測距指示信号であると判定部62Bによって判定された場合、撮像装置制御部62Cは、受信部62Aで受信された測距指示信号を撮像装置34に転送する。
 撮像装置34において、受信部132Aは、情報処理装置30の撮像装置制御部62Cによって転送された測距指示信号を受信する。受信部132Aによって測距指示信号が受信されると、測距系制御部132Cは、3Dセンサ38(図5参照)に対して測距を行わせる。
 一例として図16に示すように、撮像装置34において、測距系制御部132Cは、3Dセンサ38に対して測距を行わせることで距離画像148(図5参照)を生成させ、3Dセンサ38から、距離画像148を含む測距結果150を取得する。送信部132Dは、距離画像148を含む測距結果150を情報処理装置30に送信する。
 情報処理装置30において、受信部62Aは、撮像装置34の送信部132Dから送信された測距結果150を受信する。判定部62Bは、受信部62Aで受信された信号が測距結果であるか否かを判定する。受信部62Aで受信された信号が測距結果150であると判定部62Bによって判定された場合、取得部62Gは、受信部62Aで受信された測距結果150を取得し、取得した測距結果150をRAM66の測距結果記憶領域に上書き保存する。
 一例として図17に示すように、情報処理装置30において、受信部62Aは、タブレット端末32の送信部78Dから送信されたライブビュー撮像指示信号を受信する。判定部62Bは、受信部62Aで受信された信号がライブビュー撮像指示信号であるか否かを判定する。受信部62Aで受信された信号がライブビュー撮像指示信号であると判定部62Bによって判定された場合、撮像装置制御部62Cは、受信部62Aで受信されたライブビュー撮像指示信号を撮像装置34に転送する。
 撮像装置34において、受信部132Aは、情報処理装置30の撮像装置制御部62Cによって転送されたライブビュー撮像指示信号を受信する。受信部132Aによってライブビュー撮像指示信号が受信されると、撮像系制御部132Bは、ライブビュー画像用撮像を行う。
 一例として図18に示すように、撮像装置34において、撮像系制御部132Bは、点検対象物16(図1参照)を被写体としてライブビュー画像用撮像を行うことで、撮像画像127(図4参照)としてライブビュー画像198を取得する。送信部132Dは、撮像系制御部132Bによって取得されたライブビュー画像198を情報処理装置30に送信する。
 情報処理装置30において、受信部62Aは、撮像装置34の送信部132Dから送信されたライブビュー画像198を受信する。判定部62Bは、受信部62Aでライブビュー画像198が受信されたか否かを判定する。受信部62Aでライブビュー画像198が受信されたと判定部62Bによって判定された場合、取得部62Gは、受信部62Aで受信されたライブビュー画像198を取得し、取得したライブビュー画像198をRAM66のライブビュー画像記憶領域に上書き保存する。
 ストレージ64には、事前撮像画像202が記憶されている。事前撮像画像202は、撮像装置34によって本撮像が行われることによって得られた静止画像206に基づく画像である。例えば、事前撮像画像202は、合成画像204又は1フレーム分の静止画像206である。静止画像206は、本開示の技術に係る「本撮像画像」の一例である。
 合成画像204は、ライブビュー画像198により示される撮像シーンよりも広いシーンを示す画像である。例えば、撮像装置34によって本撮像が行われることで得られた複数の静止画像206の各々が、ライブビュー画像198により示される撮像シーンが本撮像されることで得られた場合において、合成画像204は、複数の静止画像206がパノラマ化された画像(すなわち、パノラマ画像)である。
 なお、ここでは、説明の便宜上、ストレージ64に事前撮像画像202が記憶されていることを前提として説明しているが、ストレージ64に事前撮像画像202が記憶されていない場合もあり得る。この場合、撮像装置34によって本撮像が行われることで得られた1フレーム分の静止画像206がストレージ64に記憶される。
 画面生成部62Dは、取得部62Gによって取得されたライブビュー画像198と、ストレージ64に記憶されている事前撮像画像202とに基づいて撮像開始画面データ200を生成する。撮像開始画面データ200は、撮像開始画面180(図12、図19及び図20参照)をタッチパネルディスプレイ72に対して表示させるための画面データ(例えば、撮像開始画面180(図12、図19及び図20参照)を示す画面データ)である。送信部62Hは、画面生成部62Dによって生成された撮像開始画面データ200をタブレット端末32に送信する。
 なお、ここで、撮像開始画面データ200は、本開示の技術に係る「画面データ」の一例である。また、送信部62Hによる撮像開始画面データ200の送信は、本開示の技術に係る「画面データ」の「出力」の一例である。また、タッチパネルディスプレイ72は、本開示の技術に係る「第1ディスプレイ」及び「第2ディスプレイ」の一例である。
 一例として図19及び図20に示すように、撮像開始画面180は、画面フレーム180A、ライブビュー領域180B、ガイドビュー領域180C、ワイドビュー領域180D、ガイド領域180E、及び指示受付領域180Fを含む。
 画面フレーム180Aは、撮像開始画面180、撮像条件調整画面182、合成確認画面184、及び撮像許可画面186間で共通の仕様の画面フレームである。画面フレーム180Aの上端部には、設定ボタン208、撮像モード変更ボタン210、参照ボタン212、及び撮像終了キー214が表示されている。
 設定ボタン208は、現時点でタッチパネルディスプレイ72に表示されている画面を設定画面188(図12参照)に切り替える指示を受け付けるボタンである。設定ボタン208がオンされると、現時点でタッチパネルディスプレイ72に表示されている画面(図19に示す例では、撮像開始画面180)から設定画面188に切り替えられる。撮像モード変更ボタン210は、スライド式のソフトキーであり、撮像モード変更ボタン210をスライドさせることで、オンとオフとが切り替えられる。撮像モード変更ボタン210がオンされると、撮像装置34の撮像モードとしてAFモードが設定され、撮像モード変更ボタン210がオフされると、撮像装置34の撮像モードとしてMFモードが設定される。参照ボタン212は、ユーザ36に参照させる情報として予め定められた情報(以下、「参照情報」と称する)を表示させる指示を受け付けるボタンである。参照ボタン212がオンされると、タッチパネルディスプレイ72に参照情報が表示される。撮像終了キー214は、ライブビュー画像用撮像を終了させる指示を受け付けるソフトキーである。撮像終了キー214がオンされると、撮像装置34によるライブビュー画像用撮像が中止される。
 画面フレーム180Aのうちの上端部以外の領域にはライブビュー領域180Bが重ねられている。ライブビュー領域180Bには、ライブビュー画像198が表示される。ライブビュー領域180Bの中央部には、指示受付領域180Fが重ねられている。指示受付領域180Fは、円領域である。指示受付領域180Fであることを視覚的に識別可能なマークであればよい。ここでは、円領域の指示受付領域180Fが例示されているが、これは、あくまでも一例に過ぎず、指示受付領域180Fの形状は、円以外の形状(例えば、ひし形又は三角形等)であってもよい。指示受付領域180Fは、ソフトキーとしての機能を有しており、チョーク検出処理及び/又は損傷検出処理で用いられるパノラマ画像用の撮像を開始する指示(以下、「パノラマ画像用撮像開始指示」とも称する)を受け付ける。指示受付領域180Fによるパノラマ画像用撮像開始指示の受け付けは、指示受付領域180Fに対するタップによって実現される。
 ライブビュー領域180Bの正面視左下部には、ガイドビュー領域180Cが重ねられている。ガイドビュー領域180Cには、ワイドビュー領域180D及びガイド領域180Eが含まれている。ガイドビュー領域180Cには、ガイドビュー領域180Cの外枠よりも内側の範囲内で、ワイドビュー領域180Dが重ねられている。ワイドビュー領域180Dには、事前撮像画像202(図19に示す例では、合成画像204)が表示される。ガイド領域180Eは、ワイドビュー領域180Dよりも表示面積が小さく、かつ、ガイドビュー領域180Cの外枠よりも内側の範囲内で移動可能な領域である。ガイド領域180Eは、ガイドビュー領域180C内ではガイドビュー領域180Cに対して重ねられ、ワイドビュー領域180D内ではワイドビュー領域180Dに対して重ねられる。
 ガイドビュー領域180C内でのガイド領域180Eの移動は、例えば、タッチパネルディスプレイ72に対するユーザによるスワイプ又はフリックによって実現される。ガイド領域180Eには、ライブビュー画像198が表示される。ガイド領域180Eは、ライブビュー領域180Bと相似関係にある。ガイド領域180Eには、ライブビュー領域180Bに表示されているライブビュー画像198の全体が縮小化された状態でガイド領域180Eに表示される。
 ガイド領域180Eには、ライブビュー領域180Bに表示されているライブビュー画像198に相当する画像領域をワイドビュー領域180D内で特定可能となるようにガイド領域180Eの外縁180E1が強調表示されている。すなわち、外縁180E1は、ガイド領域180Eと他の領域との境界が視覚的に識別可能となるように強調表示されている。外縁180E1は、本開示の技術に係る「ガイド情報」の一例である。
 一例として図21に示すように、タブレット端末32において、受信部78Eは、情報処理装置30の送信部62Hから送信された撮像開始画面データ200を受信する。判定部78Bは、受信部78Eで撮像開始画面データ200が受信されたか否かを判定する。受信部78Eで撮像開始画面データ200が受信された場合、表示制御部78Aは、受信部78Eによって受信された撮像開始画面データ200により示される撮像開始画面180をタッチパネルディスプレイ72に表示させる。
 一例として図22に示すように、タブレット端末32において、判定部78Bは、タッチパネルディスプレイ72に表示されている撮像開始画面180内の指示受付領域180Fがユーザ36によってタップされたか否かを判定する。指示受付領域180Fがユーザ36によってタップされたと判定部78Bによって判定された場合、信号生成部78Cは、撮像条件確認信号を生成する。撮像条件確認信号は、合成画像204を生成する撮像条件の確認を情報処理装置30に対して指示する信号である。送信部78Dは、信号生成部78Cによって生成された撮像条件確認信号を情報処理装置30に送信する。
 一例として図23に示すように、情報処理装置30において、受信部62Aは、タブレット端末32の送信部78Dから送信された撮像条件確認信号を受信する。判定部62Bは、受信部62Aで受信された信号が撮像条件確認信号であるか否かを判定する。受信部62Aで受信された信号が撮像条件確認信号であると判定部62Bによって判定された場合、取得部62Gは、ストレージ64から事前撮像画像202を取得し、かつ、RAM66からライブビュー画像198及び測距結果150を取得する。算出部62Eは、オーバーラップ率、ズーム率、及び傾斜角度を算出する。オーバーラップ率は、ライブビュー画像198の面積に対するオーバーラップ領域216の面積の割合を指す。
 オーバーラップ領域216とは、ライブビュー画像198と事前撮像画像202とがオーバーラップしている領域を指す。なお、ここでは、ライブビュー画像198と事前撮像画像202とのオーバーラップを例に挙げて説明しているが、撮像装置34によって本撮像が行われることで得られた静止画像206と事前撮像画像202とのオーバーラップであってもよい。
 ズーム倍率とは、ライブビュー画像198のサイズと事前撮像画像202を構成している1フレーム分の静止画像206(図18参照)のサイズとを合わせるために要する光学ズーム倍率を指す。
 傾斜角度とは、点検対象物16(図1参照)に含まれる撮像対象面と受光面96A(図4参照)とで成す角度を指す。撮像対象面と受光面96Aとで成す角度とは、例えば、撮像対象面の法線ベクトルと受光面96Aの法線ベクトルとで成す角度である。撮像対象面とは、例えば、点検対象物16に対する撮像範囲の中央部(例えば、撮像範囲のうちの数十%を占める中央部)に含まれる平面を指す。撮像対象面は、例えば、測距結果150に含まれる距離画像148のうちの点検対象物16に対する撮像範囲の中央部に相当する領域148Aから特定される。例えば、領域148Aに像として含まれる最も広い平面が撮像対象面である。ここで、撮像対象面は、本開示の技術に係る「第1撮像対象面」及び「第2撮像対象面」の一例である。受光面96Aは、本開示の技術に係る「撮像装置に含まれる既定面」及び「イメージセンサの撮像面に相当する面」の一例である。
 一例として図24に示すように、情報処理装置30において、判定部62Bは、図23に示す算出部62Eによって算出されたオーバーラップ率が既定範囲外か否かを判定する。既定範囲とは、例えば、30%±数%(すなわち、許容誤差)以内の範囲を指す。オーバーラップ率が既定範囲外であると判定部62Bによって判定された場合、算出部62Eは、撮像範囲の移動方向及び移動量として、オーバーラップ率が既定範囲内に収めるのに必要な移動方向及び移動量を算出する。
 画面生成部62Dは、算出部62Eによって算出された移動方向及び移動量に基づいて移動案内画面データ218を生成する。移動案内画面データ218は、移動案内画面190(図12及び図25参照)をタッチパネルディスプレイ72に対して表示させるための画面データ(例えば、移動案内画面190を示す画面データ)である。送信部62Hは、画面生成部62Dによって生成された移動案内画面データ218をタブレット端末32に送信する。
 一例として図25に示すように、移動案内画面データ218により示される移動案内画面190は、撮像開始画面180(図19参照)に比べ、指示受付領域180Fに代えて指示受付領域190Aが適用されている点が異なる。
 指示受付領域190Aは、菱形の領域であり、菱形の4つの角に対して、上下左右の四方向の各々を指し示す楔状の印190A1~190A4が割り当てられている。また、指示受付領域190A内には、撮像範囲の移動をユーザ36に促すメッセージが表示されている。図25に示す例では、「移動させてください」というメッセージが示されている。撮像範囲を上方向に移動させる場合、印190A1がタップされ、撮像範囲を下方向に移動させる場合、印190A2がタップされ、撮像範囲を左方向に移動させる場合、印190A3がタップされ、撮像範囲を右方向に移動させる場合、印190A4がタップされる。単位移動量(例えば、1回のタップに対する移動量)は、例えば、0.01ミリメートルである。また、撮像範囲の移動量は、例えば、印190A1~190A4に対するタップ回数又はロングプレスの時間等に応じて定まる。単位移動量は、固定値であってもよいし、与えられた指示又は各種条件に応じて変更される可変値であってもよい。
 一例として図26に示すように、タブレット端末32において、受信部78Eは、情報処理装置30の送信部62Hから送信された移動案内画面データ218を受信する。判定部78Bは、受信部78Eによって移動案内画面データ218が受信されたか否かを判定する。受信部78Eで移動案内画面データ218が受信されたと判定部78Bによって判定された場合、表示制御部78Aは、受信部78Eによって受信された移動案内画面データ218により示される移動案内画面190をタッチパネルディスプレイ72に表示させる。図26に示す例では、移動案内画面190内の印190A4がユーザ36によってタップされている態様が示されている。この場合、撮像範囲は左方向にタップされた回数に応じた移動量だけ移動する。なお、撮像範囲の位置が既定の位置(例えば、オーバーラップ率が既定範囲に収まる位置)に到達した場合、表示制御部78Aは、指示受付領域190A内のメッセージを消すようにしてもよい。
 一例として図27に示すように、情報処理装置30において、判定部62Bは、図23に示す算出部62Eによって算出されたズーム倍率の変更が必要か否かを判定する。例えば、ズーム倍率が“1”以外の値である場合、ズーム倍率の変更が必要であると判定する。ズーム倍率の変更が必要であると判定部62Bによって判定された場合、算出部62Eは、不足ズーム倍率を算出する。不足ズーム倍率とは、ズーム倍率を“1”にするために不足しているズーム倍率を指す。
 画面生成部62Dは、算出部62Eによって算出された不足ズーム倍率に基づいてズーム案内画面データ220を生成する。ズーム案内画面データ220は、望遠ズーム案内画面192(図12及び図28参照)又は広角ズーム案内画面194(図12及び図29参照)をタッチパネルディスプレイ72に対して表示させるための画面データ(例えば、望遠ズーム案内画面192又は広角ズーム案内画面194を示す画面データ)である。送信部62Hは、画面生成部62Dによって生成されたズーム案内画面データ220をタブレット端末32に送信する。なお、以下では、説明の便宜上、望遠ズーム案内画面192及び広角ズーム案内画面194を区別して説明する必要がない場合、符号を付さずに「ズーム案内画面」と称する。
 一例として図28に示すように、望遠ズーム案内画面192は、移動案内画面190に比べ、指示受付領域190Aに代えて指示受付領域192Aが適用されている点、及び、参照枠192Bを有する点が異なる。
 指示受付領域192Aは、撮像範囲と相似関係にある領域であり、四角形状の外枠を有している。指示受付領域192Aには、望遠ズームの操作をユーザ36に促すメッセージが表示されている。図28に示す例では、「近づけてください」というメッセージが表示されている。また、望遠ズーム案内画面192では、指示受付領域192Aに対して参照枠192Bが割り当てられている。参照枠192Bは、指示受付領域192Aと相似関係にある枠であり、指示受付領域192Aよりも大きい。参照枠192Bは、不足ズーム倍率を補って得られる撮像範囲に対応する大きさの枠である。
 一例として図29に示すように、広角ズーム案内画面194は、望遠ズーム案内画面192に比べ、指示受付領域192Aに代えて指示受付領域194Aが適用されている点、及び、参照枠192Bに代えて参照枠194Bが適用されている点が異なる。
 指示受付領域194Aは、撮像範囲と相似関係にある領域であり、四角形状の外枠を有している。指示受付領域194Aには、広角ズームの操作をユーザ36に促すメッセージが表示されている。図29に示す例では、「離してください」というメッセージが表示されている。また、広角ズーム案内画面194では、指示受付領域194Aに対して参照枠194Bが割り当てられている。参照枠194Bは、指示受付領域194Aと相似関係にある枠であり、指示受付領域194Aよりも小さい。参照枠194Bは、不足ズーム倍率を補って得られる撮像範囲に対応する大きさの枠である。
 一例として図30に示すように、タブレット端末32において、受信部78Eは、情報処理装置30の送信部62Hから送信されたズーム案内画面データ220を受信する。判定部78Bは、受信部78Eによってズーム案内画面データ220が受信されたか否かを判定する。受信部78Eでズーム案内画面データ220が受信されたと判定部78Bによって判定された場合、表示制御部78Aは、受信部78Eによって受信されたズーム案内画面データ220により示されるズーム案内画面をタッチパネルディスプレイ72に表示させる。
 図30に示す例では、望遠ズーム案内画面192内の指示受付領域192Aのサイズを参照枠192Bのサイズに合わせる操作として、タッチパネルディスプレイ72に対するピンチアウト操作がユーザ36によって行われる態様が示されている。ピンチアウト操作によって指示受付領域192Aのサイズが徐々に大きくなり、やがて参照枠192Bのサイズと一致する。なお、指示受付領域192Aのサイズが参照枠192Bのサイズと一致した場合、表示制御部78Aは、指示受付領域192A内のメッセージを消すようにしてもよいし、指示受付領域192Aに対してピーキング処理を施してもよい。
 図30に示す例では、広角ズーム案内画面194内の指示受付領域194Aのサイズを参照枠194Bのサイズに合わせる操作として、タッチパネルディスプレイ72に対するピンチイン操作がユーザ36によって行われる態様が示されている。ピンチイン操作によって指示受付領域194Aのサイズが徐々に大きくなり、やがて参照枠194Bのサイズと一致する。なお、指示受付領域194Aのサイズが参照枠194Bのサイズと一致した場合、表示制御部78Aは、指示受付領域194A内のメッセージを消すようにしてもよいし、指示受付領域194Aに対してピーキング処理を施してもよい。
 一例として図31に示すように、情報処理装置30において、判定部62Bは、図23に示す算出部62Eによって算出された傾斜角度が正対角度以外の角度か否かを判定する。正対角度とは、例えば、受光面96A(図4参照)との角度が0度±数百分の1度(すなわち、許容誤差)よりも大きいか否かを判定する。傾斜角度が正対角度以外の角度であると判定部62Bによって判定された場合、算出部62Eは、差分角度を算出する。差分角度とは、傾斜角度と正対角度との差分の角度を指す。差分角度は、本開示の技術に係る「撮像装置によって撮像される第2撮像対象面と撮像装置とが正対しているか否かを示す情報」の一例である。
 画面生成部62Dは、算出部62Eによって算出された差分角度に基づいて傾き調整案内画面データ222を生成する。傾き調整案内画面データ222は、傾き調整案内画面196(図12及び図32参照)をタッチパネルディスプレイ72に対して表示させるための画面データ(例えば、傾き調整案内画面196を示す画面データ)である。送信部62Hは、画面生成部62Dによって生成された傾き調整案内画面データ222をタブレット端末32に送信する。
 一例として図32に示すように、傾き調整案内画面196は、広角ズーム案内画面194に比べ、指示受付領域194Aに代えて指示受付領域196Aが適用されている点、及び、参照枠194Bに代えて参照枠196Bが適用されている点が異なる。
 指示受付領域196Aは、撮像範囲と相似関係にある領域であり、四角形状の外枠を有している。指示受付領域196Aには、撮像範囲の傾きを調整する操作をユーザ36に促すメッセージが表示されている。図32に示す例では、「傾きを調整してください」というメッセージが表示されている。また、傾き調整案内画面196では、指示受付領域196Aに対して参照枠196Bが割り当てられている。参照枠196Bは、差分角度を補って得られる撮像範囲に対応する形状及び大きさを有する枠である。
 一例として図33に示すように、タブレット端末32において、受信部78Eは、情報処理装置30の送信部62Hから送信された傾き調整案内画面データ222を受信する。判定部78Bは、受信部78Eによって傾き調整案内画面データ222が受信されたか否かを判定する。受信部78Eで傾き調整案内画面データ222が受信されたと判定部78Bによって判定された場合、表示制御部78Aは、受信部78Eによって受信された傾き調整案内画面データ222により示される傾き調整案内画面196をタッチパネルディスプレイ72に表示させる。
 図33に示す例では、傾き調整案内画面196内の指示受付領域196Aの形状及び大きさを参照枠196Bの形状及び大きさに合わせる操作として、タッチパネルディスプレイ72に対するピンチイン操作及び/又はピンチアウト操作がユーザ36によって行われる態様が示されている。ピンチイン操作及び/又はピンチアウト操作によって指示受付領域196Aの形状及び大きさが変更され、やがて参照枠192Bの形状及び大きさと一致する。なお、指示受付領域196Aの形状及び大きさが参照枠192Bの形状及び大きさと一致した場合、表示制御部78Aは、指示受付領域196A内のメッセージを消すようにしてもよいし、指示受付領域196Aに対してピーキング処理を施してもよい。
 一例として図34に示すように、タブレット端末32において、タッチパネルディスプレイ72を介して撮像条件調整画面182に対して調整指示が与えられると、調整値算出部78Fが調整指示に応じた調整値を算出する。ここで、調整指示とは、一例として図26に示す移動案内画面190内の指示受付領域190Aに対するユーザ36による操作(例えば、タップ)、一例として図30に示すズーム案内画面内の指示受付領域192A又は194Aに対するユーザ36による操作(例えば、ピンチイン操作及び/又はピンチアウト操作)、及び/又は、一例として図33に示す傾き調整案内画面196内の指示受付領域196Aに対するユーザ36による操作(例えば、ピンチイン操作及び/又はピンチアウト操作)を指す。
 信号生成部78Cは、調整値算出部78Fによって算出された調整値を示す調整結果信号を生成する。送信部78Dは、信号生成部78Cによって生成された調整結果信号を情報処理装置30に送信する。
 一例として図35に示すように、情報処理装置30において、受信部62Aは、タブレット端末32の送信部78Dから送信された調整結果信号を受信する。判定部62Bは、受信部62Aによって調整結果信号が受信されたか否かを判定する。受信部62Aで調整結果信号が受信されたと判定部62Bによって判定された場合、撮像装置制御部62Cは、受信部62Aで受信された調整結果信号に従って撮像装置34を制御し、駆動系制御部62Fは、受信部62Aで受信された調整結果信号に従って駆動系14を制御する。
 例えば、受信部62Aで受信された調整結果信号により示される調整値が指示受付領域192A又は194A(図30参照)に対する調整指示に応じて定められた調整値である場合、撮像装置制御部62Cは、不足ズーム倍率を補うようにズームレンズ98C(図4参照)を光軸OAに沿って移動させる。このようにズームレンズ98Cを移動させた後、算出部62Eによって再びズーム倍率が算出される(図23参照)。
 また、例えば、受信部62Aで受信された調整結果信号により示される調整値が指示受付領域190A(図26参照)に対する調整指示に応じて定められた調整値である場合、駆動系制御部62Fは、調整値に応じた移動方向及び移動量で撮像範囲を移動させるように車両20を走行させたり、昇降装置22を作動させたりする。このように車両20及び/又は昇降装置22を作動させた後、算出部62Eによって再びオーバーラップ率が算出される(図23参照)。
 また、例えば、受信部62Aで受信された調整結果信号により示される調整値が指示受付領域196A(図33参照)に対する調整指示に応じて定められた調整値である場合、駆動系制御部62Fは、差分角度が解消されるように2軸旋回装置18を作動させる。このように2軸旋回装置18を作動させた後、算出部62Eによって再び傾斜角度が算出される(図23参照)。
 一例として図36に示すように、情報処理装置30において、判定部62Bは、算出部62Eによって算出されたオーバーラップ率が既定範囲内であり、算出部62Eによって算出されたズーム倍率の変更が不要(例えば、ズーム倍率=1)であり、かつ、算出部62Eによって算出された傾斜角度が正対角度であるか否かを判定する。算出部62Eによって算出されたオーバーラップ率が既定範囲内であり、算出部62Eによって算出されたズーム倍率の変更が不要であり、かつ、算出部62Eによって算出された傾斜角度が正対角度であると判定部62Bによって判定された場合、信号生成部62Jは、本撮像が実行可能であると判断したことを示す撮像可能信号を設定する。すなわち、信号生成部62Jは、撮像可能信号を生成してRAM66に撮像可能信号を記憶させる。
 一例として図37に示すように、情報処理装置30において、画面生成部62Dは、信号生成部62Jによって撮像可能信号が設定された場合、すなわち、RAM66に撮像可能信号が記憶された場合に、撮像許可画面データ224を生成する。撮像許可画面データ224は、撮像許可画面186(図12及び図38参照)をタッチパネルディスプレイ72に対して表示させるための画面データ(例えば、撮像許可画面186を示す画面データ)である。送信部62Hは、画面生成部62Dによって生成された撮像許可画面データ224をタブレット端末32に送信し、RAM66内の撮像可能信号を消去する。なお、撮像許可画面データ224は、本開示の技術に係る「本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が画面に含まれるデータ」の一例である。
 一例として図38に示すように、撮像指示受付領域186Aには、本撮像が実行可能な状況であることを報知する表示態様の領域として撮像指示受付領域186Aが含まれている。撮像許可画面186は、撮像開始画面180に比べ、指示受付領域180Fに代えて撮像指示受付領域186Aが適用されている点が異なる。撮像指示受付領域186Aは、指示受付領域180Fに比べ、本撮像が実行可能であることを示すメッセージ(図38に示す例では、「撮像OK」というメッセージ)を含む点が異なる。なお、本撮像が実行可能であることを示すメッセージは必須ではなく、本撮像が実行可能であることを示すメッセージはあってもよいし、無くてもよい。
 一例として図39に示すように、タブレット端末32において、受信部78Eは、情報処理装置30の送信部62Hから送信された撮像許可画面データ224を受信する。判定部78Bは、受信部78Eによって撮像許可画面データ224が受信されたか否かを判定する。受信部78Eで撮像許可画面データ224が受信されたと判定部78Bによって判定された場合、表示制御部78Aは、受信部78Eによって受信された撮像許可画面データ224により示される撮像許可画面186をタッチパネルディスプレイ72に表示させる。
 一例として図40に示すように、タブレット端末32において、判定部78Bは、タッチパネルディスプレイ72に表示されている撮像許可画面186内の撮像指示受付領域186Aがユーザ36によってタップされたか否かを判定する。撮像指示受付領域186Aに対するユーザ36によるタップは、本開示の技術に係る「撮像指示」の一例である。
 撮像指示受付領域186Aによってユーザ36からの指示が受け付けられた場合、すなわち、撮像指示受付領域186Aがユーザ36によってタップされたと判定部78Bによって判定された場合、信号生成部78Cは、本撮像指示信号を生成する。本撮像指示信号は、ライブビュー画像198により示される点検対象物16(図1参照)について撮像装置34に対して本撮像を行わせる指示を示す信号である。送信部78Dは、信号生成部78Cによって生成された本撮像指示信号を情報処理装置30に送信する。
 一例として図41に示すように、情報処理装置30において、受信部62Aは、タブレット端末32の送信部78Dから送信された本撮像指示信号を受信する。判定部62Bは、受信部62Aによって本撮像指示信号が受信されたか否かを判定する。受信部62Aで本撮像指示信号が受信されたと判定部62Bによって判定された場合、撮像装置制御部62Cは、受信部62Aで受信された本撮像指示信号を撮像装置34に転送する。ここで、本撮像指示信号の転送は、本開示の技術に係る「本撮像指示信号」の「出力」の一例である。
 撮像装置34において、受信部132Aは、情報処理装置30の撮像装置制御部62Cから転送された本撮像指示信号を受信する。受信部132Aによって本撮像指示信号が受信された場合、撮像系制御部132Bは、本撮像を行う。
 一例として図42に示すように、撮像装置34において、撮像系制御部132Bは、点検対象物16(図1参照)を被写体として本撮像を行うことで、撮像画像127(図4参照)として静止画像206を取得する。送信部132Dは、撮像系制御部132Bによって取得された静止画像206を情報処理装置30に送信する。
 情報処理装置30において、受信部62Aは、撮像装置34の送信部132Dから送信された静止画像206を受信する。判定部62Bは、受信部62Aで静止画像206が受信されたか否かを判定する。受信部62Aで静止画像206が受信されたと判定部62Bによって判定された場合、合成部62Iは、受信部62Aで受信された静止画像206を取得する。また、合成部62Iは、ストレージ64から事前撮像画像202を取得する。合成部62Iは、上述した既定範囲内のオーバーラップ率で静止画像206を事前撮像画像202にオーバーラップさせてパノラマ化することで合成画像204を生成する。
 画面生成部62Dは、合成部62Iで生成された合成画像204を用いた合成画像入り画面データ226を生成する。合成画像入り画面データ226は、合成画像入り画面を示す画面データである。合成画像入り画面とは、例えば、撮像開始画面180、撮像条件調整画面182、合成確認画面184、及び撮像許可画面186の各々のワイドビュー領域180Dに表示される事前撮像画像202を、合成部62Iで生成された最新の合成画像204に置き換えた画面を示す画面データである。送信部62Hは、合成画像入り画面データ226をタブレット端末32に送信する。
 一例として図43に示すように、合成画像入り画面データ226として生成された撮像開始画面180には、ワイドビュー領域180Dには、複数の静止画像206がパノラマ化されて得られた合成画像204が表示される。タッチパネルディスプレイ72に撮像開始画面180が表示されている状態で、表示制御部78Aは、タッチパネルディスプレイ72によって受け付けられた指示に応じて、撮像開始画面180から合成確認画面184に切り替える。ここで、タッチパネルディスプレイ72によって受け付けられた指示の一例としては、例えば、ユーザ36によるワイドビュー領域180Dに対するタップが挙げられる。また、ワイドビュー領域180Dに対するタップに限らず、ガイドビュー領域180Cに対するタップであってもよいし、ガイド領域180Eに対するタップであってもよい。また、タップは、あくまでも一例に過ぎず、タップに代えて、ロングプレスが行われてもよいし、フリック又はスワイプが行われてもよい。
 合成確認画面184の正面視左下部には縮小ライブビュー領域184Aが表示され、かつ、画面中央部に合成画像確認ビュー領域180D1が表示される。縮小ライブビュー領域184Aは、ライブビュー領域180Bを縮小させた画面であり、縮小ライブビュー領域184Aには、ライブビュー領域180Bの全体が縮小ライブビュー領域184Aの外枠に合わせた大きさに縮小化されて表示される。
 合成画像確認ビュー領域180D1は、拡大されたガイドビュー領域180Cに重ねて表示される。合成画像確認ビュー領域180D1は、ワイドビュー領域180Dを拡大させた領域であり、ワイドビュー領域180Dの拡大率と同じ拡大率で合成画像204も拡大されて合成画像確認ビュー領域180D1に表示される。すなわち、合成画像確認ビュー領域180D1は、合成画像204と共に合成画像確認ビュー領域180D1を拡大させた領域である。合成確認画面184において、縮小ライブビュー領域184がタップされると、表示制御部78Aは、タッチパネルディスプレイ72に表示される画面を、合成確認画面184から撮像開始画面180に切り替える。
 なお、画面が切り替えられる場合、タブレット端末32のプロセッサ78は、情報処理装置30に対して画面の切り替え(例えば、撮像開始画面180から合成確認画面184への切り替え)を要求し、情報処理装置30のプロセッサ62は、切り替え後の画面(例えば、合成確認画面184)を示す合成確認画面データを生成してタブレット端末32に送信するようにすればよい。そして、タブレット端末32のプロセッサ62は、情報処理装置30から送信された合成確認画面データにより示される合成確認画面184をタッチパネルディスプレイ72に対して表示させればよい。
 次に、情報処理システム12の作用について図44A~図46を参照しながら説明する。
 先ず、タブレット端末32のプロセッサ78によって行われるタブレット側処理について図44A~図44Cを参照しながら説明する。図44A~図44Cには、プロセッサ78によって行われるタブレット側処理の流れの一例が示されている。
 図44Aに示すタブレット側処理では、先ず、ステップST10で、表示制御部78Aは、起動時設定画面178を生成し、生成した起動時設定画面178をタッチパネルディスプレイ72に表示させる(図13参照)。ステップT10の処理が実行された後、タブレット側処理はステップST12へ移行する。
 ステップST12で、判定部78Bは、起動時設定画面178内の撮像開始キー178Dがオンされたか否かを判定する(図13参照)。ステップST12において、撮像開始キー178Dがオンされていない場合は、判定が否定されて、タブレット側処理は、図44Cに示すステップST68へ移行する。ステップST12において、撮像開始キー178Dがオンされた場合は、判定が肯定されて、タブレット側処理はステップST14へ移行する。
 ステップST14で、信号生成部78Cは、ライブビュー撮像指示信号及び測距指示信号を生成する。ステップST14の処理が実行された後、タブレット側処理はステップST16へ移行する。
 ステップST16で、送信部78Dは、ステップST14で生成されたライブビュー撮像指示信号及び測距指示信号を情報処理装置30に送信する(図15及び図17参照)。ステップST16の処理が実行された後、タブレット側処理はステップST18へ移行する。
 ステップST16の処理が実行されたことを条件に、図45Aに示す点検支援処理では、ステップST118の処理が実行される。ステップST118の処理が実行されることによって、情報処理装置30からタブレット端末32に撮像開始画面データ200(図18参照)が送信される。
 ステップST18で、判定部78Bは、受信部78Eによって撮像開始画面データ200が受信されたか否かを判定する(図21参照)。ステップST18において、受信部78Eによって撮像開始画面データ200が受信されていない場合は、判定が否定されて、ステップT18の判定が再び行われる。ステップST18において、受信部78Eによって撮像開始画面データ200が受信された場合は、判定が肯定されて、タブレット側処理はステップST20へ移行する。
 ステップST20で、表示制御部78Aは、受信部78Eによって受信された撮像開始画面データ200により示される撮像開始画面180をタッチパネルディスプレイ72に表示させる(図21参照)。ステップST20の処理が実行された後、タブレット側処理はステップST22へ移行する。
 ステップST22で、判定部78Bは、タッチパネルディスプレイ72に表示されている撮像開始画面180内の指示受付領域180Fがタップされたか否かを判定する(図22参照)。ステップST22において、指示受付領域180Fがタップされていない場合は、判定が否定されて、ステップST22の判定が再び行われる。ステップST22において、指示受付領域180Fがタップされた場合は、判定が肯定されて、タブレット側処理はステップST24へ移行する。
 ステップST24で、信号生成部78Cは、撮像条件確認信号を生成する(図22参照)。ステップST24の処理が実行された後、タブレット側処理はステップST26へ移行する。
 ステップST26で、送信部78Dは、ステップST24で生成された撮像条件確認信号を情報処理装置30に送信する(図22参照)。ステップST26の処理が実行された後、タブレット側処理はステップST28へ移行する。
 ステップST26の処理が実行されたことを条件に、図45B及び図45Cに示す点検支援処理では、ステップST132の処理、ステップST140の処理、及び/又はステップST148の処理が実行される。ステップST132の処理が実行されることによって、情報処理装置30からタブレット端末32に移動案内画面データ218(図24参照)が送信される。ステップST140の処理が実行されることによって、情報処理装置30からタブレット端末32にズーム案内画面データ220(図27参照)が送信される。ステップST148の処理が実行されることによって情報処理装置30からタブレット端末32に傾き調整案内画面データ222(図31参照)が送信される。
 ステップST28で、判定部78Bは、受信部78Eによって移動案内画面データ218が受信されたか否かを判定する(図26参照)。ステップST28において、受信部78Eによって移動案内画面データ218が受信されていない場合は、判定が否定されて、タブレット側処理は、図44Bに示すステップST36へ移行する。ステップST28において、受信部78Eによって移動案内画面データ218が受信された場合は、判定が肯定されて、タブレット側処理はステップST30へ移行する。
 ステップST30で、表示制御部78Aは、受信部78Eによって受信された移動案内画面データ218により示される移動案内画面190をタッチパネルディスプレイ72に表示させる(図26参照)。ステップST30の処理が実行された後、タッチパネル側処理はステップST32へ移行する。
 ステップST32で、判定部78Bは、タッチパネルディスプレイ72に表示されている移動案内画面190(図26参照)に対して調整指示が与えられたか否かを判定する。ここで、調整指示とは、例えば、指示受付領域190Aの印190A1~190A(図26参照)に対するタップ等を指す。ステップST32において、移動案内画面190に対して調整指示が与えられていない場合は、判定が否定されて、ステップST32の判定が再び行われる。ステップST32において、移動案内画面190に対して調整指示が与えられた場合は、判定が肯定されて、タブレット側処理はステップST34へ移行する。
 ステップST34で、調整値算出部78Fは、移動案内画面190(図26参照)に対して与えられた調整指示に応じた調整値を算出する(図34参照)。ステップST34の処理が実行された後、タッチパネル側処理は、図44Bに示すステップST36へ移行する。
 図44Bに示すステップST36で、判定部78Bは、受信部78Eによってズーム案内画面データ220が受信されたか否かを判定する(図30参照)。ステップST36において、受信部78Eによってズーム案内画面データ220が受信されていない場合は、判定が否定されて、タブレット側処理はステップST44へ移行する。ステップST36において、受信部78Eによってズーム案内画面データ220が受信された場合は、判定が肯定されて、タブレット側処理はステップST38へ移行する。
 ステップST38で、表示制御部78Aは、受信部78Eによって受信されたズーム案内画面データ220により示されるズーム案内画面をタッチパネルディスプレイ72に表示させる(図30参照)。ステップST38の処理が実行された後、タブレット側処理はステップST40へ移行する。
 ステップST40で、判定部78Bは、タッチパネルディスプレイ72に表示されているズーム案内画面(図30参照)に対して調整指示が与えられたか否かを判定する。ここで、調整指示とは、例えば、指示受付領域192A又は194Aに対するピンチアウト操作及び/又はピンチイン操作等を指す。ステップST40において、ズーム案内画面に対して調整指示が与えられていない場合は、判定が否定されて、ステップST40の判定が再び行われる。ステップST40において、ズーム案内画面に対して調整指示が与えられた場合は、判定が肯定されて、タブレット側処理はステップST42へ移行する。
 ステップST42で、調整値算出部78Fは、ズーム案内画面(図30参照)に対して与えられた調整指示に応じた調整値を算出する(図34参照)。ステップST42の処理が実行された後、タッチパネル側処理はステップST44へ移行する。
 ステップST44で、判定部78Bは、受信部78Eによって傾き調整案内画面データ222が受信されたか否かを判定する(図33参照)。ステップST44において、受信部78Eによって傾き調整案内画面データ222が受信されていない場合は、判定が否定されて、タブレット側処理はステップST46へ移行する。ステップST44において、受信部78Eによって傾き調整案内画面データ222が受信された場合は、判定が肯定されて、タブレット側処理はステップST46へ移行する。
 ステップST46で、表示制御部78Aは、受信部78Eによって受信された傾き調整案内画面データ222により示される傾き調整案内画面196をタッチパネルディスプレイ72に表示させる(図33参照)。ステップST46の処理が実行された後、タブレット側処理はステップST48へ移行する。
 ステップST48で、判定部78Bは、タッチパネルディスプレイ72に表示されている傾き調整案内画面196(図33参照)に対して調整指示が与えられたか否かを判定する。ここで、調整指示とは、例えば、指示受付領域196A(図33参照)に対するピンチアウト操作及び/又はピンチイン操作等を指す。ステップST48において、傾き調整案内画面196に対して調整指示が与えられていない場合は、判定が否定されて、ステップST48の判定が再び行われる。ステップST48において、傾き調整案内画面196に対して調整指示が与えられた場合は、判定が肯定されて、タブレット側処理はステップST50へ移行する。
 ステップST50で、調整値算出部78Fは、傾き調整案内画面196(図33参照)に対して与えられた調整指示に応じた調整値を算出する(図34参照)。ステップST50の処理が実行された後、タッチパネル側処理はステップST52へ移行する。
 ステップST52で、判定部78Bは、ステップST34の処理、ステップST42の処理、及びステップST50の処理のうちの少なくとも1つの処理で調整値が算出されたか否かを判定する。ステップST52において、ステップST34の処理、ステップST42の処理、及びステップST50の処理のうちの少なくとも1つの処理で調整値が算出されていない場合は、判定が否定されて、タブレット側処理は、図44Cに示すステップST58へ移行する。ステップST52において、ステップST34の処理、ステップST42の処理、及びステップST50の処理のうちの少なくとも1つの処理で調整値が算出された場合は、判定が肯定されて、タブレット側処理はステップST54へ移行する。
 ステップST54で、信号生成部78Cは、調整結果信号を生成する(図34参照)。ステップST54の処理が実行された後、タブレット側処理はステップST56へ移行する。
 ステップST56で、送信部78Dは、ステップST54で生成された調整結果信号を情報処理装置30に送信する(図34参照)。ステップST56の処理が実行された後、タブレット側処理は、図44Cに示すステップST58へ移行する。
 ステップST56の処理が実行されたことを条件に、図45Dに示す点検支援処理では、ステップST160の処理が実行されることによって、情報処理装置30からタブレット端末32に撮像許可画面データ224(図37参照)が送信される。
 図44Cに示すステップST58で、判定部78Bは、情報処理装置30から送信された撮像許可画面データ224が受信部78Eによって受信されたか否かを判定する(図39参照)。ステップST58において、撮像許可画面データ224が受信部78Eによって受信されていない場合は、判定が否定されて、ステップST58の判定が再び行われる。ステップST58において、撮像許可画面データ224が受信部78Eによって受信された場合は、判定が肯定されて、タブレット側処理はステップST60へ移行する。
 ステップST60で、表示制御部78Aは、受信部78Eによって受信された撮像許可画面データ224により示される撮像許可画面186をタッチパネルディスプレイ72に表示させる(図39参照)。ステップST60の処理が実行された後、タッチパネル側処理はステップST62へ移行する。
 ステップST62で、判定部78Bは、タッチパネルディスプレイ72に表示されている撮像許可画面186内の撮像指示受付領域186Aがタップされたか否かを判定する(図40参照)。ステップST62において、撮像指示受付領域186Aがタップされていない場合は、判定が否定されて、ステップST62の判定が再び行われる。ステップST62において、撮像指示受付領域186Aがタップされた場合は、判定が肯定されて、タッチパネル側処理はステップST64へ移行する。
 ステップST64で、信号生成部78Cは、本撮像指示信号を生成する(図40参照)。ステップST64の処理が実行された後、タブレット側処理はステップST66へ移行する。
 ステップST66で、送信部78Dは、ステップST64で生成された本撮像指示信号を情報処理装置30に送信する(図40参照)。ステップST66の処理が実行された後、タブレット側処理はステップST68へ移行する。
 ステップST68で、判定部78Bは、タブレット側処理が終了する条件(以下、「タブレット側処理終了条件」と称する)を満足したか否かを判定する。タブレット側処理終了条件の第1例としては、タブレット側処理を終了させる指示がタッチパネルディスプレイ72によって受け付けられた、という条件が挙げられる。タブレット側処理条件の第2例としては、タブレット側処理の実行が開始されてからステップST66の処理が実行されることなく既定時間(例えば、15分)が経過した、という条件が挙げられる。
 ステップST68において、タブレット側処理終了条件を満足していない場合は、判定が否定されて、タブレット側処理は、図44Aに示すステップST14へ移行する。ステップST68において、タブレット側処理終了条件を満足した場合は、判定が肯定されて、タブレット側処理が終了する。
 次に、情報処理装置30のプロセッサ62によって行われる点検支援処理について図45A~図45Dを参照しながら説明する。図45A~図45Dには、プロセッサ62によって行われる点検支援処理の流れの一例が示されている。
 図45Aに示す点検支援処理では、先ず、ステップST100で、判定部62Bは、図44Aに示すステップST16の処理が実行されることによってタブレット端末32から送信された測距指示信号が受信部62Aによって受信されたか否かを判定する(図15参照)。ステップST100において、測距指示信号が受信部62Aによって受信されていない場合は、判定が否定されて、点検支援処理はステップST108へ移行する。ステップST100において、測距指示信号が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST102へ移行する。
 ステップST102で、撮像装置制御部62Cは、受信部62Aによって受信された測距指示信号を撮像装置34に転送する(図15参照)。ステップST102の処理が実行された後、点検支援処理はステップST104へ移行する。
 ステップST102の処理が実行されたことを条件に、図46に示す撮像装置側処理では、ステップST206の処理が実行されることによって、撮像装置34から情報処理装置30に測距結果150が送信される(図5及び図16参照)。
 ステップST104で、判定部62Bは、撮像装置34から送信された測距結果150が受信部62Aによって受信されたか否かを判定する(図16参照)。ステップST104において、測距結果150が受信部62Aによって受信されていない場合は、判定が否定されて、ステップST104の判定が再び行われる。ステップST104において、測距結果150が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST106へ移行する。
 ステップST106で、取得部62Gは、受信部62Aによって受信された測距結果150を取得し、取得した測距結果150をRAM66に上書き保存する(図16参照)。ステップST106の処理が実行された後、点検支援処理はステップST108へ移行する。
 ステップST108で、判定部62Bは、図44Aに示すステップST16の処理が実行されることによってタブレット端末32から送信されたライブビュー撮像指示信号が受信部62Aによって受信されたか否かを判定する(図17参照)。ステップST108において、ライブビュー撮像指示信号が受信部62Aによって受信されていない場合は、判定が否定されて、点検支援処理はステップST100へ移行する。ステップST108において、ライブビュー撮像指示信号が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST110へ移行する。
 ステップST110で、撮像装置制御部62Cは、受信部62Aによって受信されたライブビュー撮像指示信号を撮像装置34に転送する(図17参照)。ステップST110の処理が実行された後、点検支援処理はステップST112へ移行する。
 ステップST110の処理が実行されたことを条件に、図46に示す撮像装置側処理では、ステップST214の処理が実行されることによって、撮像装置34から情報処理装置30にライブビュー画像198が送信される(図18参照)。
 ステップST112で、判定部62Bは、撮像装置34から送信されたライブビュー画像198が受信部62Aによって受信された否かを判定する(図18参照)。ステップST112において、ライブビュー画像198が受信部62Aによって受信されていない場合は、判定が否定されて、ステップST112の判定が再び行われる。ステップST112において、ライブビュー画像198が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST114へ移行する。
 ステップST114で、取得部62Gは、受信部62Aによって受信されたライブビュー画像198を取得し、取得したライブビュー画像198をRAM66に上書き保存する(図18参照)。ステップST114の処理が実行された後、点検支援処理はステップST116へ移行する。
 ステップST116で、画面生成部62Dは、撮像開始画面データ200を生成する(図18参照)。ステップST116の処理が実行された後、点検支援処理はステップST118へ移行する。
 ステップST118で、送信部62Hは、ステップST116で生成された撮像開始画面データ200をタブレット端末32に送信する(図18参照)。ステップST118の処理が実行された後、点検支援処理は、図45Bに示すステップST120へ移行する。
 図45Bに示すステップST120で、判定部62Bは、図44Aに示すステップST26の処理が実行されることによってタブレット端末32から送信された撮像条件確認信号が受信部62Aによって受信されたか否かを判定する(図23参照)。ステップST120において、撮像条件確認信号が受信部62Aによって受信されていない場合は、判定が否定されて、ステップST120の判定が再び行われる。ステップST120において、撮像条件確認信号が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST122へ移行する。
 ステップST122で、取得部62Gは、ストレージ64から事前撮像画像202を取得し、かつ、RAM66からライブビュー画像198及び測距結果150を取得する(図23参照)。ステップST122の処理が実行された後、点検支援処理はステップST124へ移行する。
 ステップST124で、算出部62Eは、ステップST122で取得された事前撮像画像202、ライブビュー画像198、及び測距結果150を用いて、オーバーラップ率、ズーム倍率、及び傾斜角度を算出する(図23参照)。ステップST124の処理が実行された後、点検支援処理はステップST126へ移行する。
 ステップST126で、判定部62Bは、ステップST124で算出されたオーバーラップ率が既定範囲外であるか否かを判定する(図24参照)。ステップST126において、オーバーラップ率が既定範囲内の場合は、判定が否定されて、点検支援処理は、図45Cに示すステップST134へ移行する。ステップST126において、オーバーラップ率が既定範囲外の場合は、判定が肯定されて、点検支援処理はステップST128へ移行する。
 ステップST128で、算出部62Eは、撮像装置34による撮像範囲の移動方向及び移動量として、オーバーラップ率を規定範囲内に収めることが可能な移動方向及び移動量を算出する(図24参照)。ステップST128の処理が実行された後、点検支援処理はステップST130へ移行する。
 ステップST130で、画面生成部62Dは、ステップST128で算出された移動方向及び移動量に基づいて移動案内画面データ218を生成する(図24参照)。ステップST130の処理が実行された後、点検支援処理はステップST132へ移行する。
 ステップST132で、送信部62Hは、ステップST130で生成された移動案内画面データ218をタブレット端末32に送信する(図24参照)。ステップST132の処理が実行された後、点検支援処理は、図45Cに示すステップST134へ移行する。
 図45Cに示すステップST134で、判定部62Bは、ステップST124で算出されたズーム倍率を参照して、撮像装置34のズーム倍率の変更が必要か否かを判定する(図27参照)。ステップST134において、ズーム倍率の変更が不要の場合は、判定が否定されて、点検支援処理はステップST142へ移行する。ステップST134において、ズーム倍率の変更が必要な場合は、判定が肯定されて、点検支援処理はステップST136へ移行する。
 ステップST136で、算出部62Eは、不足ズーム倍率を算出する(図27参照)。ステップST136の処理が実行された後、点検支援処理はステップST138へ移行する。
 ステップST138で、画面生成部62Dは、ステップST136で算出された不足ズーム倍率に基づいてズーム案内画面データ220を生成する(図27参照)。ステップST136の処理が実行された後、点検支援処理はステップST140へ移行する。
 ステップST140で、送信部62Hは、ステップST138で生成されたズーム案内画面データ220をタブレット端末32に送信する(図27参照)。ステップST140の処理が実行された後、点検支援処理はステップST142へ移行する。
 ステップST142で、判定部62Bは、ステップST124で算出された傾斜角度が正対角度以外の角度であるか否かを判定する(図31参照)。ステップST142において、傾斜角度が正対角度である場合は、判定が否定されて、点検支援処理はステップST150へ移行する。ステップST142において、傾斜角度が正対角度以外の角度である場合は、判定が肯定されて、点検支援処理はステップST144へ移行する。
 ステップST144で、算出部62Eは、ステップST124で算出された傾斜角度と正対角度との差分の角度である差分角度を算出する(図31参照)。ステップST144の処理が実行された後、点検支援処理はステップST146へ移行する。
 ステップST146で、画面生成部62Dは、ステップST144で算出された差分角度に基づいて傾き調整案内画面データ222を生成する(図31参照)。ステップST146の処理が実行された後、点検支援処理はステップST148へ移行する。
 ステップST148で、送信部62Hは、ステップST146で生成された傾き調整案内画面データ222をタブレット端末32に送信する(図31参照)。ステップST148の処理が実行された後、点検支援処理はステップST150へ移行する。
 ステップST150で、判定部62Bは、図44Bに示すステップST56の処理が実行されることによってタブレット端末32から送信された調整結果信号が受信部62Aによって受信されたか否かを判定する(図35参照)。ステップST150において、調整結果信号が受信部62Aによって受信されていない場合は、判定が否定されて、点検支援処理はステップST154へ移行する。ステップST150において、調整結果信号が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST152へ移行する。
 ステップST152で、駆動系制御部62Fは、受信部62Aによって受信された調整結果信号に従って駆動系14を制御し、撮像装置制御部62Cは、受信部62Aによって受信された調整結果信号に従って撮像装置34のズームレンズ98C(図4参照)を光軸OAに沿って移動させることで光学ズームを実行する(図35参照)。ステップST152の処理が実行された後、点検支援処理はステップST154へ移行する。
 ステップST154で、判定部62Bは、合成画像204を作るための本撮像を行う上で必要な撮像条件を満足したか否かを判定する。ここで、合成画像204を作るための本撮像を行う上で必要な撮像条件の一例としては、オーバーラップ率が既定範囲内であり、ズーム倍率の変更が不要であり、かつ、傾斜角度が正対角度である、という条件が挙げられる(図36参照)。ステップST154において、合成画像204を作るための本撮像を行う上で必要な撮像条件を満足していない場合は、判定が否定されて、点検支援処理は、図45Dに示すステップST166へ移行する。ステップST154において、合成画像204を作るための本撮像を行う上で必要な撮像条件を満足した場合は、判定が肯定されて、点検支援処理はステップST156へ移行する。
 ステップST156で、信号生成部62Jは、撮像可能信号を生成し、生成した撮像可能信号をRAM66に記憶させる(図36参照)。ステップST156の処理が実行された後、点検支援処理は、図45Dに示すステップST158へ移行する。
 図45Dに示すステップST158で、画面生成部62Dは、撮像許可画面データ224を生成する(図37参照)。すなわち、画面生成部62Dは、RAM66に撮像可能信号が記憶されたことを条件に撮像許可画面データ224を生成する。ステップST158の処理が実行された後、点検支援処理はステップST160へ移行する。
 ステップST160で、送信部62Hは、ステップST158で生成された撮像許可画面データ224をタブレット端末32に送信し、RAM66から撮像可能信号を消去する(図37参照)。ステップST160の処理が実行された後、点検支援処理はステップST162へ移行する。
 ステップST162で、判定部62Bは、図44Cに示すステップST66の処理が実行されることによってタブレット端末32から送信された本撮像指示信号が受信部62Aによって受信されたか否かを判定する(図41参照)。ステップST162において、本撮像指示信号が受信部62Aによって受信されていない場合は、判定が否定されて、ステップST162の判定が再び行われる。ステップST162において、本撮像指示信号が受信部62Aによって受信された場合は、判定が肯定されて、点検支援処理はステップST164へ移行する。
 ステップST164で、撮像装置制御部62Cは、受信部62Aによって受信された本撮像指示信号を撮像装置34に転送する(図41参照)。ステップST164の処理が実行された後、点検支援処理はステップST166へ移行する。
 ステップST166で、判定部62Bは、点検支援処理が終了する条件(以下、「点検支援処理終了条件」と称する)を満足したか否かを判定する。点検支援処理終了条件の第1例としては、点検支援処理を終了させる指示が情報処理装置30に対して与えられた、という条件が挙げられる。点検支援処理終了条件の第2例としては、点検支援処理の実行が開始されてからステップST164の処理が実行されることなく既定時間(例えば、15分)が経過した、という条件が挙げられる。
 ステップST166において、点検支援処理終了条件を満足していない場合は、判定が否定されて、点検支援処理は、図45Aに示すステップST100へ移行する。ステップST166において、点検支援処理終了条件を満足した場合は、判定が肯定されて、点検支援処理が終了する。
 次に、撮像装置34のプロセッサ132によって行われる撮像装置側処理について図46を参照しながら説明する。図46には、プロセッサ132によって行われる撮像装置側処理の流れの一例が示されている。
 図46に示す撮像装置側処理では、先ず、ステップST200で、測距系制御部132Cは、図45Aに示すステップST102の処理が実行されることによって情報処理装置30から転送された測距指示信号が受信部132Aによって受信されたか否かを判定する。ステップST200において、測距指示信号が受信部132Aによって受信されていない場合は、判定が否定されて、撮像装置側処理はステップST208へ移行する。ステップST200において、測距指示信号が受信部132Aによって受信された場合は、判定が肯定されて、撮像装置側処理はステップST202へ移行する。
 ステップST202で、測距系制御部132Cは、3Dセンサ38(図1及び図5参照)に対した測距を行わせる(図15及び図16参照)。ステップST202の処理が実行された後、撮像装置側処理はステップST204へ移行する。
 ステップST204で、測距系制御部132Cは、3Dセンサ38から測距結果150を取得する(図16参照)。ステップST204の処理が実行された後、撮像装置側処理はステップST206へ移行する。
 ステップST206で、送信部132Dは、ステップST204で取得された測距結果150を情報処理装置30に送信する(図16参照)。ステップST206の処理が実行された後、撮像装置側処理はステップST208へ移行する。
 ステップST208で、撮像系制御部132Bは、図45Aに示すステップST110の処理が実行されることによって転送されたライブビュー撮像指示信号が受信部132Aによって受信されたか否かを判定する。ステップST208において、ライブビュー撮像指示信号が受信部132Aによって受信されていない場合は、判定が否定されて、撮像装置側処理はステップST220へ移行する。ステップST208において、ライブビュー撮像指示信号が受信部132Aによって受信された場合は、判定が肯定されて、撮像装置側処理はステップST210へ移行する。
 ステップST210で、撮像系制御部132Bは、ライブビュー画像用撮像を実行する(図17及び図18参照)。ステップST210の処理が実行された後、撮像装置側処理はステップST212へ移行する。
 ステップST212で、撮像系制御部132Bは、ライブビュー画像198を取得する(図18参照)。ステップST212の処理が実行された後、撮像装置側処理はステップST214へ移行する。
 ステップST214で、送信部132Dは、ステップST212で取得されたライブビュー画像198を情報処理装置30に送信する(図18参照)。ステップST214の処理が実行された後、撮像装置側処理はステップST216へ移行する。
 ステップST216で、撮像系制御部132Bは、図45Dに示すステップST164の処理が実行されることによって情報処理装置30から転送された本撮像指示信号が受信部132Aによって受信されたか否かを判定する。ステップST216において、本撮像指示信号が受信部132Aによって受信されていない場合は、判定が否定されて、撮像装置側処理はステップST220へ移行する。ステップST216において、本撮像指示信号が受信部132Aによって受信された場合は、判定が肯定されて、撮像装置側処理はステップST218へ移行する。
 ステップST218で、撮像系制御部132Bは、本撮像を実行することで静止画像206を取得する。そして、送信部132Dは、撮像系制御部132Bによって取得された静止画像206を情報処理装置30に送信する。ステップST218の処理が実行された後、撮像装置側処理はステップST220へ移行する。
 ステップST218の処理が実行されることによって情報処理装置30に送信された静止画像206は、情報処理装置30の合成部62Iによって事前撮像画像202と合成されることでパノラマ化され、これによって、合成画像204が生成される(図42参照)。また、情報処理装置30では、合成部62Iによって得られた合成画像204に基づいて画面生成部62Dによって合成画像入り画面データ226がタブレット端末32に送信される(図42参照)。タブレット端末32では、タッチパネルディスプレイ72に、合成画像入り画面データ226により示される合成画像入り画面が表示される。合成画像入り画面には、合成画像204が表示される(図43参照)。合成画像204は、タッチパネルディスプレイ72に対して与えられた指示に従って拡縮される(図43参照)。
 ステップST220で、撮像系制御部132Bは、撮像装置側処理が終了する条件(以下、「撮像装置側処理終了条件」と称する)を満足したか否かを判定する。撮像装置側処理終了条件の第1例としては、撮像装置側処理を終了させる指示が撮像装置34に対して与えられた、という条件が挙げられる。撮像装置側処理終了条件の第2例としては、撮像装置側処理の実行が開始されてからステップST218の処理が実行されることなく既定時間(例えば、15分)が経過した、という条件が挙げられる。
 ステップST220において、撮像装置側処理終了条件を満足していない場合は、判定が否定されて、撮像装置側処理は、ステップST200へ移行する。ステップST200において、撮像装置側処理終了条件を満足した場合は、判定が肯定されて、撮像装置側処理が終了する。
 以上説明したように、情報処理装置30では、撮像画像127及び測距結果150に基づいて撮像可能信号が設定される。撮像可能信号は、撮像装置34による本撮像が実行可能であると判断したことを示す信号である。情報処理装置30では、撮像可能信号が設定された場合に、撮像指示受付領域186Aを含む撮像許可画面186を示す撮像許可画面データ224がタブレット端末32に送信される。そして、タブレット端末32のタッチパネルディスプレイ72に表示された撮像許可画面186に含まれる撮像指示受付領域186Aがタップされた場合に、ライブビュー画像198により示される撮像シーンについて撮像装置34に対して本撮像を行わせる指示を示す本撮像指示信号が撮像装置34に送信される。撮像装置34では、本撮像指示信号が受信されたことを条件に本撮像が実行される。従って、本構成によれば、撮像画像127及び測距結果150の何れも用いずに定められたタイミングが撮像タイミングとしてユーザ36に報知される場合に比べ、良好なタイミングで撮像装置34に対して本撮像を行わせることができる。
 また、情報処理装置30では、合成画像204が生成される。合成画像204は、ライブビュー画像198により示される撮像シーンよりも広い撮像シーンを示す画像である。従って、本構成によれば、ユーザ36に対して、ライブビュー画像198により示される撮像シーンよりも広いシーンを視覚的に認識させることができる。
 また、情報処理装置30では、複数の静止画像206がパノラマ化されて得られた画像が合成画像204として生成される。従って、本構成によれば、複数の静止画像206を1フレームずつ順番に表示される場合に比べ、ユーザ36に対して、本撮像が行われたエリアを視覚的に容易に認識させることができる。
 また、情報処理装置30では、合成画像204と共にワイドビュー領域180Dを拡大させた合成画像確認ビュー領域180D1を含む画面を示すデータが合成画像入り画面データ226としてタブレット端末32に送信され、タブレット端末32のタッチパネルディスプレイ72には、合成画像確認ビュー領域180D1を含む画面として合成確認画面184が表示される。従って、本構成によれば、合成画像204が拡大されない場合に比べ、合成画像204の視認性を高めることができる。
 また、情報処理装置30では、撮像装置34に対して測距結果を取得させる指示を示す信号、及び、点検対象物16と撮像装置34との間の距離を撮像装置34に対して計測させる指示を示す信号として測距指示信号が撮像装置34に送信される。撮像装置34は、測距指示信号を受信した場合に、測距を実行する。従って、本構成によれば、ユーザ36が撮像装置34に直接触れて撮像装置34を操作せずとも撮像装置34に対して測距結果を取得させることができる。また、ユーザ36が撮像装置34に直接触れて撮像装置34を操作せずとも点検対象物16と撮像装置34との間の距離を撮像装置34に対して計測させることができる。
 また、情報処理装置30では、撮像可能信号が生成されたことを条件に本撮像指示信号が撮像装置34に送信され、これによって、撮像装置34によって本撮像が行われる。撮像可能信号は、算出部62Eによって算出された傾斜角度が正対角度であることを条件に生成される。従って、本構成によれば、傾斜角度が正対角度以外の角度のときに撮像可能信号が生成される場合に比べ、傾きが少ない静止画像206を得ることができる。
 また、情報処理装置30では、撮像可能信号が生成されたことを条件に本撮像指示信号が撮像装置34に送信され、これによって、撮像装置34によって本撮像が行われる。撮像可能信号は、算出部62Eによって算出されたオーバーラップ率が既定範囲内であることを条件に生成される。従って、本構成によれば、複数の静止画像206がパノラマ化された合成画像204が生成されるにあたってオーバーラップ率を全く考慮されていない場合に比べ、合成画像204内に欠落箇所(例えば、空白領域)が生じることを抑制することができる。
 また、情報処理装置30では、判定部62Bによって、測距結果150に基づく情報として、傾斜角度が正対角度であるか否かを示す情報が取得される(図31及び図36参照)。従って、本構成によれば、ユーザ36が撮像装置34に直接触れて撮像装置34を操作せずとも、傾斜角度が正対角度であるか否かを示す情報を得ることができる。
 また、情報処理装置30では、撮像系制御部132Bによって、点検対象物16と撮像装置34との間の距離に基づく情報として距離画像148が取得される(図5及び図16参照)。従って、ユーザ36が撮像装置34に直接触れて撮像装置34を操作せずとも、距離画像148を得ることができる。
 なお、上記実施形態では、合成画像204により示される撮像領域の実空間面積(以下、単に「実空間面積」とも称する)が算出されていないが、一例として図47に示すように、算出部62Eによって実空間面積が算出されるようにしてもよい。この場合、例えば、算出部62Eは、下記の数式(1)を用いて被写体(例えば、点検対象物16)に含まれる実空間上の区域の長さLを算出し、算出したLを用いて実空間面積を算出する。数式(1)において、Lは、被写体(例えば、点検対象物16)に含まれる実空間上の区域の長さであり、u1及びu2は、合成画像204内のうちの指定された画素のアドレスであり、Dは、3Dセンサ38によって計測された距離であり、pは、光電変換素子96に含まれる感光画素間のピッチであり、fは、撮像レンズ98の焦点距離である。
Figure JPOXMLDOC01-appb-M000001
 画面生成部62Dは、算出部62Eによって算出された実空間面積を含む画面を示す画面データ228を生成する。送信部62Hは、画面生成部62Dによって生成された画面データ228をタブレット端末32に送信する。画面データ228は、例えば、図12に示す撮像開始画面180、撮像条件調整画面182、合成確認画面184、及び撮像許可画面186のうちの少なくとも1つの画面に実空間面積を含めた画面を示す画面データである。タブレット端末32のタッチパネルディスプレイ72には、画面データ228により示される画面が表示される。図48に示す例では、画面データ228により示される画面の一例として、表示領域184Bを含む合成確認画面184が示されている。表示領域184Bは、合成画像確認ビュー領域180D1からポップアップした状態で表示されている。表示領域184B内には、算出部62Eによって算出された実空間面積が表示されている。従って、合成画像204により示される撮像領域の実空間面積を視覚的に把握させることができる。
 図47に示す例では、情報処理装置30から実空間面積を含む画面を示す画面データ228がタブレット端末32に送信されているが、本開示の技術は、これに限定されない。情報処理装置30のプロセッサ62は、測距結果150に基づく情報をタッチパネルディスプレイ72に対して表示させるための測距結果データをタブレット端末32に送信するようにしてよい。
 この場合、例えば、画面生成部62Dが、画面データ228として、測距結果データを含む画面を示す画面データを生成し、送信部62Hが、画面生成部62Dによって生成された画面データ228をタブレット端末32に送信する。
 ここで、測距結果データの第1例としては、距離画像148が挙げられる。また、測距結果データの第2例としては、撮像装置34から点検対象物16内の特定位置(例えば、ユーザ36によって指定された位置)までの距離が挙げられる。また、測距結果データの第3例としては、傾斜角度が正対角度であるか否かの判定結果を示す正対情報が挙げられる。また、測距結果データの第4例としては、測距結果150に基づいて特定されたフォーカスエリアを示す枠であるフォーカスエリア枠が挙げられる。
 図49には、画面生成部62Dによって測距結果データに基づいて生成された画面データ228により示される画面として合成確認画面184がタッチパネルディスプレイ72に表示されている態様の一例が示されている。図49に示す例では、合成確認画面184は測距情報表示領域230を有する。測距情報表示領域230には、ユーザ36によって指定された位置までの距離を示す情報がメッセージ形式で表示されている。これにより、ユーザ36に対して、ユーザ36が指定した位置までの距離を視覚的に認識させることができる。また、合成画像確認ビュー領域180D1に表示されている合成画像204内に、撮像装置34からユーザ36によって指定された位置まで距離を示す数値(図49に示す例では、50.0m及び35.2m)が表示されている。
 図49に示す例では、タッチパネルディスプレイ72に距離に関するメッセージ及び数値が表示されているが、これに限らず、タッチパネルディスプレイ72に、距離画像148、正対情報、及び/又はフォーカスエリア枠等も表示されるようにしてもよい。また、この場合、正対情報については、メッセージ形式で測距情報表示領域230に表示されるようしてもよい。
 上記実施形態では、撮像指示受付領域186Aがタップされることによって本撮像が開始されるようにしたが、本開示の技術は、これに限定されず、レリーズボタン146(図4参照)が操作されることによって本撮像が開始されるようにしてもよい。
 上記実施形態では、情報処理装置30によって点検支援処理が行われる形態例を挙げて説明したが、本開示の技術は、これに限定されない。例えば、タブレット端末32及び/又は撮像装置34によって点検支援処理が行われるようにしてもよい。この場合、タブレット端末32が情報処理装置30を介さずに駆動系14及び撮像装置34と直接的に通信を行うようにしてもよい。また、複数の装置(例えば、情報処理装置30及びタブレット端末32)が点検支援処理を分散して行うようにしてもよい。
 上記実施形態では、タブレット端末32のタッチパネルディスプレイ72に各種画面(例えば、図12に示す各種画面)が表示される形態例を挙げて説明したが、本開示の技術は、これに限定されず、情報処理装置30のディスプレイ48に各種画面が表示されるようにしてもよい。この場合、情報処理装置30によってタブレット側処理が行われるようにすればよい。
 上記実施形態では、撮像指示受付領域186Aによって本撮像の指示が受け付けられる形態例を挙げて説明したが、本開示の技術はこれに限定されず、レリーズボタン146によっても本撮像の指示が受け付けられるようにしてもよい。この場合、例えば、事前にレリーズボタン146をロック状態にしておき、撮像指示受付領域186Aが表示されるタイミングでレリーズボタン146のロック状態が解除されるようにする。撮像指示受付領域186Aが表示されるタイミングでレリーズボタン146のロック状態を解除するために、情報処理装置30において、判定部62Bは、撮像許可信号がRAM66に記憶されたか否かを判定する。撮像許可信号がRAM66に記憶されたと判定部62Bによって判定された場合、撮像装置制御部62Cは、レリーズボタン146のロック状態を解除させるためのロック解除指示信号を撮像装置34に送信する。撮像装置34において、受信部132Aによってロック解除指示信号が受信されると、撮像系制御部132Bは、レリーズボタン146のロック状態を解除する。これにより、レリーズボタン146が操作されない方が良いタイミングで誤ってレリーズボタン146が操作されないようにし、かつ、レリーズボタン146が操作されても良いタイミングでレリーズボタン146が操作されるようにすることができる。
 上記実施形態では、タッチパネルディスプレイ72を介して撮像条件調整画面182に対して与えられた調整指示に応じた調整値が調整値算出部78Fによって算出されるようにしたが、本開示の技術は、これに限定されず、撮像範囲の位置ずれ量、不足ズーム倍率、及び差分角度から、調整指示を介さずに直接調整値が算出されるようにしてもよい。この場合、例えば、位置ずれ量、不足ズーム倍率、及び/又は差分角度を独立変数とし、調整値を従属変数とする演算式から調整値が算出されるようにしてもよいし、位置ずれ量、不足ズーム倍率、及び/又は差分角度を入力とし、調整値を出力とするテーブルから調整値が導出されるようにしてもよい。そして、上記実施形態で説明した要領で、プロセッサ62によって、調整値に従って、位置ずれ量、不足ズーム倍率、及び差分角度が調整されたことを条件に撮像可能信号が設定されるようにしてもよい。このように撮像可能信号が設定されたとしても、上記実施形態と同様に、撮像許可画面186に撮像指示受付領域186Aが表示される。
 上記実施形態では、3Dセンサ38によって測距が行われる形態例を挙げて説明したが、本開示の技術は、これに限定されず、3Dセンサ38に代えて、又は、3Dセンサ38と共に、像面位相差方式の光電変換素子を備えたイメージセンサによって撮像と測距とが選択的に行われるようにしてもよい。この場合、例えば、イメージセンサ94に代えて、1つの画素に一対のフォトダイオードが設けられた像面位相差方式の光電変換素子を備えたイメージセンサ(以下、「像面位相差方式イメージセンサ)とも称する)を用いればよい。
 像面位相差方式イメージセンサの光電変換素子に含まれる全ての感光画素の各々は、独立した一対のフォトダイオードを含む。一対のフォトダイオードのうちの一方のフォトダイオードには、撮像レンズ98を透過した被写体を示す光束(以下、「被写体光束」とも称する)が瞳分割されることで得られた第1光束が入射され、一対のフォトダイオードのうちの他方のフォトダイオードには、被写体光束が瞳分割されることで得られた第2光束が入射される。
 像面位相差方式イメージセンサの光電変換素子に含まれる全ての感光画素は、撮像及び位相差に関するデータを出力する機能を有している。例えば、撮像モードにおいて撮像が行われる場合に、像面位相差方式イメージセンサの光電変換素子は、一対のフォトダイオードを合わせて1つの画素とすることで、非位相差画素データを出力する。例えば、測距モードにおいて測距が行われる場合に、像面位相差方式イメージセンサの光電変換素子は、一対のフォトダイオードのそれぞれから位相差画素データを出力する。
 像面位相差方式イメージセンサの光電変換素子において、感光画素は、非位相差画素データと、位相差画素データとを選択的に出力可能である。非位相差画素データは、感光画素の全領域によって光電変換が行われることで得られる画素データであり、位相差画素データは、感光画素の一部の領域によって光電変換が行われることで得られる画素データである。ここで、「画素の全領域」とは、一対のフォトダイオードを合わせた受光領域である。また、「画素の一部の領域」とは、一対のフォトダイオードのうちの一方のフォトダイオードの受光領域、又は、一対のフォトダイオードのうちの他方のフォトダイオードの受光領域である。
 撮像画像127は、非位相差画素データに基づいて生成される。撮像装置34から点検対象物16までの距離は、位相差画素データに基づいて算出される。すなわち、一対のフォトダイオードのうちの一方のフォトダイオードから出力された信号による像と、一対のフォトダイオードのうちの他方のフォトダイオードから出力された信号による像との位相差(すなわち、ずれ量及びずれ方向)に基づいて、各画素に対応する実空間ポイントまでの距離が算出される。距離画像148は、画素毎に算出された距離に基づいて生成される。
 なお、本開示の技術は、像面位相差方式イメージセンサの光電変換素子に含まれる全ての感光画素が撮像及び位相差に関するデータを出力する機能を兼ね備えていることには限定されない。すなわち、光電変換素子には、撮像及び位相差に関するデータを出力する機能を有しない感光画素が含まれていてもよい。また、イメージセンサの光電変換素子は、一画素に一対のフォトダイオードが設けられた像面位相差方式の光電変換素子に限られず、非位相差画素データを取得するための撮像用の感光画素と、位相差画素データを取得するための位相差検出用の感光画素とを含む光電変換素子であってもよい。この場合、位相差画素は、第1の瞳部分領域と第2の瞳部分領域とのうちの一方を受光するように遮光部材が設けられる。
 上記実施形態では、ストレージ64に点検支援処理プログラム172が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、点検支援処理プログラム172がSSD又はUSBメモリなどの可搬型の記憶媒体300に記憶されていてもよい。記憶媒体300は、非一時的記憶媒体である。記憶媒体300に記憶されている点検支援処理プログラム172は、情報処理装置30のコンピュータ44にインストールされる。プロセッサ62は、点検支援処理プログラム172に従って点検支援処理を実行する。
 また、ネットワークを介して情報処理装置30に接続される他のコンピュータ又はサーバ装置等の記憶装置に点検支援処理プログラム172を記憶させておき、情報処理装置30の要求に応じて点検支援処理プログラム172がダウンロードされ、コンピュータ44にインストールされるようにしてもよい。
 なお、情報処理装置30に接続される他のコンピュータ又はサーバ装置等の記憶装置、又はストレージ64に点検支援処理プログラム172の全てを記憶させておく必要はなく、点検支援処理プログラム172の一部を記憶させておいてもよい。
 また、図2に示す情報処理装置30にはコンピュータ44が内蔵されているが、本開示の技術はこれに限定されず、例えば、コンピュータ44が情報処理装置30の外部に設けられるようにしてもよい。
 上記実施形態では、コンピュータ44が例示されているが、本開示の技術はこれに限定されず、コンピュータ44に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ44に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記実施形態で説明した点検支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、点検支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで点検支援処理を実行する。
 点検支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、点検支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、点検支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、点検支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、点検支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の点検支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (20)

  1.  プロセッサと、
     前記プロセッサに接続又は内蔵されたメモリと、を備え、
     前記プロセッサは、
     測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、前記撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得し、
     前記測距機能による測距結果及び前記撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき前記本撮像が実行可能であると判断したことを示す撮像可能信号を設定し、
     ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力し、
     前記ライブビュー領域には、前記ライブビュー画像が表示され、
     前記ガイドビュー領域は、ワイドビュー領域及びガイド領域を含み、
     前記ワイドビュー領域には、前記事前撮像画像が表示され、
     前記ガイド領域には、前記ライブビュー領域に表示されている前記ライブビュー画像に相当する画像領域を前記ワイドビュー領域内で特定可能なガイド情報が表示され、
     前記プロセッサは、
     前記撮像可能信号を設定した場合に、前記本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が前記画面に含まれるデータとして前記画面データを出力し、
     前記撮像指示受付領域によって撮像指示が受け付けられた場合に、前記ライブビュー画像により示される前記撮像シーンについて前記撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力する
     情報処理装置。
  2.  前記事前撮像画像は、前記ライブビュー領域に表示される前記ライブビュー画像により示される前記撮像シーンよりも広いシーンを示す画像である
     請求項1に記載の情報処理装置。
  3.  前記事前撮像画像は、複数の前記本撮像画像がパノラマ化されて得られた合成画像である
     請求項2に記載の情報処理装置。
  4.  前記画面には、前記合成画像と共に前記ワイドビュー領域を拡大させた合成画像確認ビュー領域が含まれる
     請求項3に記載の情報処理装置。
  5.  前記画面には、前記合成画像により示される撮像領域の実空間面積が含まれる
     請求項4に記載の情報処理装置。
  6.  前記プロセッサは、前記撮像装置に対して前記測距結果を取得させる指示を示す測距結果取得指示信号を出力する
     請求項1から請求項5の何れか一項に記載の情報処理装置。
  7.  前記測距結果取得指示信号は、前記測距結果の1つとして前記撮像装置により撮像される第1撮像対象と前記撮像装置との間の距離を前記撮像装置に対して計測させる指示を示す信号を含む
     請求項6に記載の情報処理装置。
  8.  前記撮像可能信号は、前記撮像装置によって撮像される第1撮像対象面と前記撮像装置に含まれる既定面とで成す角度が前記第1撮像対象面と前記撮像装置とが正対する正対角度であることを条件に生成される
     請求項1から請求項7の何れか一項に記載の情報処理装置。
  9.  前記撮像装置は、イメージセンサを有し、
     前記既定面は、前記イメージセンサの撮像面に相当する面である
     請求項8に記載の情報処理装置。
  10.  前記撮像可能信号は、前記事前撮像画像と前記本撮像画像又は前記ライブビュー画像とのオーバーラップ率が既定範囲内であることを条件に生成される
     請求項1から請求項9の何れか一項に記載の情報処理装置。
  11.  前記プロセッサは、前記測距結果に基づく情報を取得する
     請求項1から請求項10の何れか一項に記載の情報処理装置。
  12.  前記測距結果に基づく情報は、前記撮像装置によって撮像される第2撮像対象面と前記撮像装置とが正対しているか否かを示す情報を含む
     請求項11に記載の情報処理装置。
  13.  前記測距結果に基づく情報は、前記撮像装置によって撮像される第2撮像対象と前記撮像装置との間の距離に基づく情報を含む
     請求項11又は請求項12に記載の情報処理装置。
  14.  前記プロセッサは、第2ディスプレイに対して前記測距結果に基づく情報を表示させるための測距結果データを出力する
     請求項11から請求項13の何れか一項に記載の情報処理装置。
  15.  前記第2ディスプレイには、前記測距結果に基づく情報がメッセージ形式で表示される
     請求項14に記載の情報処理装置。
  16.  前記撮像装置は、ロック状態のレリーズボタンを有し、
     前記プロセッサは、前記撮像可能信号を設定した場合に、前記撮像装置に対して前記ロック状態を解除させるためのロック解除指示信号を出力する
     請求項1から請求項15の何れか一項に記載の情報処理装置。
  17.  請求項1から請求項16の何れか一項に記載の情報処理装置と、
     前記プロセッサに対して与える指示を受け付ける受付機器と、
     を備える情報処理システム。
  18.  前記撮像装置を更に備える
     請求項17に記載の情報処理システム。
  19.  測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、前記撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得すること、
     前記測距機能による測距結果及び前記撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき前記本撮像が実行可能であると判断したことを示す撮像可能信号を設定すること、並びに、
     ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力することを含み、
     前記ライブビュー領域には、前記ライブビュー画像が表示され、
     前記ガイドビュー領域は、ワイドビュー領域及びガイド領域を含み、
     前記ワイドビュー領域には、前記事前撮像画像が表示され、
     前記ガイド領域には、前記ライブビュー領域に表示されている前記ライブビュー画像に相当する画像領域を前記ワイドビュー領域内で特定可能なガイド情報が表示され、
     前記撮像可能信号を設定した場合に、前記本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が前記画面に含まれるデータとして前記画面データを出力すること、及び、
     前記撮像指示受付領域によって撮像指示が受け付けられた場合に、前記ライブビュー画像により示される前記撮像シーンについて前記撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力することを含む
     情報処理方法。
  20.  コンピュータに、処理を実行させるためのプログラムであって、
     前記処理は、
     測距機能を有する撮像装置によって撮像シーンが撮像されることで得られたライブビュー画像、及び、前記撮像装置によって本撮像が行われることによって得られた本撮像画像に基づく事前撮像画像を取得すること、
     前記測距機能による測距結果及び前記撮像装置によって撮像されることで得られた撮像画像のうちの少なくとも一方に基づき前記本撮像が実行可能であると判断したことを示す撮像可能信号を設定すること、並びに、
     ライブビュー領域及びガイドビュー領域を含む画面を第1ディスプレイに対して表示させるための画面データを出力することを含み、
     前記ライブビュー領域には、前記ライブビュー画像が表示され、
     前記ガイドビュー領域は、ワイドビュー領域及びガイド領域を含み、
     前記ワイドビュー領域には、前記事前撮像画像が表示され、
     前記ガイド領域には、前記ライブビュー領域に表示されている前記ライブビュー画像に相当する画像領域を前記ワイドビュー領域内で特定可能なガイド情報が表示され、
     前記処理は、
     前記撮像可能信号を設定した場合に、前記本撮像が実行可能な状況であることを報知する表示態様の撮像指示受付領域が前記画面に含まれるデータとして前記画面データを出力すること、及び、
     前記撮像指示受付領域によって撮像指示が受け付けられた場合に、前記ライブビュー画像により示される前記撮像シーンについて前記撮像装置に対して本撮像を行わせる指示を示す本撮像指示信号を出力することを含む
     プログラム。
PCT/JP2022/005750 2021-03-30 2022-02-14 情報処理装置、情報処理システム、情報処理方法、及びプログラム WO2022209363A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023510616A JPWO2022209363A1 (ja) 2021-03-30 2022-02-14
EP22779590.3A EP4319133A1 (en) 2021-03-30 2022-02-14 Information processing device, information processing system, information processing method, and program
US18/475,220 US20240022810A1 (en) 2021-03-30 2023-09-27 Information processing apparatus, information processing system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021058614 2021-03-30
JP2021-058614 2021-03-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/475,220 Continuation US20240022810A1 (en) 2021-03-30 2023-09-27 Information processing apparatus, information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022209363A1 true WO2022209363A1 (ja) 2022-10-06

Family

ID=83458359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005750 WO2022209363A1 (ja) 2021-03-30 2022-02-14 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240022810A1 (ja)
EP (1) EP4319133A1 (ja)
JP (1) JPWO2022209363A1 (ja)
WO (1) WO2022209363A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061784A (ja) * 2002-07-29 2004-02-26 Ricoh Co Ltd オートフォーカス機能とスナップモード機能の双方を備えたカメラ
JP2006319470A (ja) * 2005-05-10 2006-11-24 Fuji Photo Film Co Ltd 撮像装置
JP2008098754A (ja) * 2006-10-06 2008-04-24 Olympus Imaging Corp 撮像装置、画像再生装置および撮像画像の表示方法
JP2009232276A (ja) 2008-03-24 2009-10-08 Olympus Imaging Corp 撮像装置
JP2012029245A (ja) 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 撮像装置
JP2013013050A (ja) 2011-05-27 2013-01-17 Ricoh Co Ltd 撮像装置及びこの撮像装置を用いた表示方法
JP2015119400A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061784A (ja) * 2002-07-29 2004-02-26 Ricoh Co Ltd オートフォーカス機能とスナップモード機能の双方を備えたカメラ
JP2006319470A (ja) * 2005-05-10 2006-11-24 Fuji Photo Film Co Ltd 撮像装置
JP2008098754A (ja) * 2006-10-06 2008-04-24 Olympus Imaging Corp 撮像装置、画像再生装置および撮像画像の表示方法
JP2009232276A (ja) 2008-03-24 2009-10-08 Olympus Imaging Corp 撮像装置
JP2012029245A (ja) 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 撮像装置
JP2013013050A (ja) 2011-05-27 2013-01-17 Ricoh Co Ltd 撮像装置及びこの撮像装置を用いた表示方法
JP2015119400A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム

Also Published As

Publication number Publication date
EP4319133A1 (en) 2024-02-07
JPWO2022209363A1 (ja) 2022-10-06
US20240022810A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
KR102114581B1 (ko) 화상 촬상 장치 및 방법
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US9113072B2 (en) Imaging control apparatus and imaging apparatus control method including a first display mode and a second display mode for executing an image preparation operation based on a touch operation
JP5820181B2 (ja) 撮影システム及びその制御方法ならびに表示制御装置及びその制御方法、プログラム、記憶媒体
JP5623915B2 (ja) 撮像装置
US10205878B2 (en) Image processing apparatus, image-capturing apparatus, image processing method, and non-transitory computer-readable storage medium
US20170054913A1 (en) Imaging apparatus
US8963993B2 (en) Image processing device capable of generating wide-range image
KR102280000B1 (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
JP2008003335A (ja) 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
JP5203657B2 (ja) 拡大表示機能付きカメラ
WO2022209363A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US9691362B2 (en) Display control apparatus, display control method, and recording medium displaying frames indicating portions of an image
JP2013090241A (ja) 表示制御装置、撮像装置および表示制御プログラム
JP4981955B2 (ja) 撮像装置、及びその制御方法
JP2015036845A (ja) 電子機器およびプログラム
JP4785548B2 (ja) 撮像装置、及びその制御方法
JP2014116790A (ja) 撮像装置
JP6221504B2 (ja) 電子機器およびプログラム
JP2020034759A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2011013243A (ja) 撮像装置
WO2022163390A1 (ja) 画像処理装置、制御方法、プログラム
JP5200815B2 (ja) 撮像装置及びそのプログラム
JP5225477B2 (ja) 撮像装置、及びその制御方法
JP2007267338A (ja) デジタルカメラ及びフォーカス位置特定方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22779590

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023510616

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022779590

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022779590

Country of ref document: EP

Effective date: 20231030