WO2019045089A1 - 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体 - Google Patents

情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体 Download PDF

Info

Publication number
WO2019045089A1
WO2019045089A1 PCT/JP2018/032534 JP2018032534W WO2019045089A1 WO 2019045089 A1 WO2019045089 A1 WO 2019045089A1 JP 2018032534 W JP2018032534 W JP 2018032534W WO 2019045089 A1 WO2019045089 A1 WO 2019045089A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fish
angle
length
characteristic
Prior art date
Application number
PCT/JP2018/032534
Other languages
English (en)
French (fr)
Inventor
丈晴 北川
君 朴
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2019539697A priority Critical patent/JP6879375B2/ja
Publication of WO2019045089A1 publication Critical patent/WO2019045089A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness

Definitions

  • the present invention relates to a technique for measuring the length of an object from a captured image obtained by capturing an object to be measured.
  • Patent Document 1 discloses a technique related to fish observation. According to the technique in this patent document 1, based on the photographed image of the dorsal side (or ventral side) of the fish photographed from the upper side (or bottom side) of the water tank and the lateral side, the photographed image of the front of the head side The shape and size of the head, torso, tail fin etc. are estimated for each part. The estimation of the shape and size of each part of the fish is performed using a plurality of template images given to each part. That is, the size of each part of the fish, etc. is checked based on known information such as the size of the part of the fish in the template image that matches the photographed image with the photographed image of each part. Is estimated.
  • Patent Document 2 discloses a technique of capturing an underwater fish with a moving image camera and a still image camera, and detecting a fish shadow based on the captured moving image and the still image. Further, Patent Document 2 shows a configuration in which the size of a fish is estimated by an image size (number of pixels).
  • the size of a fish site is estimated based on information of a known size of a fish site in a template image. That is, in the technique of Patent Document 1, the size of the fish site in the template image is only detected as the size of the fish site to be measured, and the size of the fish site to be measured is not measured. The problem arises that it is difficult to improve the detection accuracy of the size.
  • the main object of the present invention is to provide a technology capable of easily and accurately detecting the length of an object to be measured based on a photographed image.
  • one aspect of an information processing apparatus is: A detection unit for detecting a pair of feature portions of the object having a predetermined feature from a captured image in which the object to be measured is captured; In the photographed image, an angle formed by a virtual line segment or a virtual straight line or a virtual half straight line connecting between the characteristic portions detected as the pair, and a predetermined virtual reference line in the photographed image When the reference angle corresponds to the inclination of the object to be measured detected based on the image of the characteristic part and the angle reference data, the length between the characteristic parts forming the pair on which the inclination inspection line is based And a calculator for calculating
  • one aspect of the length measurement method is Detecting a pair of feature portions of the object having a predetermined feature from a photographed image in which the object to be measured is photographed; In the photographed image, an angle formed by a virtual line segment or a virtual straight line or a virtual half straight line connecting between the characteristic portions detected as the pair, and a predetermined virtual reference line in the photographed image
  • the reference angle corresponds to the inclination of the object to be measured detected based on the image of the characteristic part and the angle reference data
  • the length between the characteristic parts forming the pair on which the inclination inspection line is based Calculate
  • one aspect of the program storage medium is A process of detecting, from a captured image in which an object to be measured is captured, a pair of feature portions of the object having a predetermined feature; In the photographed image, an angle formed by a virtual line segment or a virtual straight line or a virtual half straight line connecting between the characteristic portions detected as the pair, and a predetermined virtual reference line in the photographed image
  • the reference angle corresponds to the inclination of the object to be measured detected based on the image of the characteristic part and the angle reference data, the length between the characteristic parts forming the pair on which the inclination inspection line is based
  • Storing a computer program that causes a computer to execute the process of calculating is
  • the present invention it is possible to easily and accurately detect the length of an object to be measured based on a captured image.
  • FIG. 2A It is a block diagram simplifying and showing composition of an information processor of a 1st embodiment concerning the present invention. It is a figure explaining the mounting example of the support member which supports the imaging device (camera) which provides a picked-up image to the information processing apparatus of 1st Embodiment, and a camera with FIG. 2B. It is a figure explaining the mounting example of the supporting member which supports the imaging device (camera) which provides a picked-up image to the information processing apparatus of 1st Embodiment, and a camera with FIG. 2A.
  • a camera demonstrates the aspect which image
  • FIG. 1 is a block diagram schematically showing the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • the information processing apparatus 20 calculates a fish length from a photographed image of a fish which is an object to be measured, which is photographed by a plurality of (two) cameras 40A and 40B as shown in FIG. 2A.
  • a length measurement system Have the ability to The information processing apparatus 20, together with the cameras 40A and 40B, constitutes a length measurement system.
  • the cameras 40A and 40B are imaging apparatuses provided with a function to capture a moving image, but do not have a moving image capture function and for example, capture images intermittently capturing still images at set time intervals.
  • the apparatus may be employed as the cameras 40A and 40B.
  • the cameras 40A and 40B are supported and fixed to the support member 42 as shown in FIG. 2A, so that the fish are arranged side by side with an interval as shown in FIG. 2B.
  • the support member 42 is configured to include a telescopic bar 43, a mounting bar 44, and fixtures 45A and 45B.
  • the telescopic rod 43 is a telescopic rod member, and further has a configuration capable of fixing the length with a length suitable for use within the telescopic length range.
  • the mounting rod 44 is made of, for example, a metal material such as aluminum, and is joined to the telescopic rod 43 so as to be orthogonal.
  • the fixtures 45A and 45B are fixed to the mounting rod 44 at portions symmetrical with respect to the joint portion with the expansion rod 43, respectively.
  • the fixtures 45A and 45B include mounting surfaces 46A and 46B for mounting the cameras 40A and 40B, and the cameras 40A and 40B mounted on the mounting surfaces 46A and 46B are rattled by the mounting surfaces 46A and 46B by, for example, screws. There is provided a configuration for fixing.
  • the cameras 40A and 40B can maintain the state in which the cameras 40A and 40B are juxtaposed through a predetermined interval.
  • the cameras 40A and 40B are fixed to the support member 42 so that the lenses provided in the cameras 40A and 40B face in the same direction and the optical axes of the lenses are parallel.
  • the support member for supporting and fixing the cameras 40A and 40B is not limited to the support member 42 shown in FIG. 2A and the like.
  • the support member for supporting and fixing the cameras 40A and 40B may use one or a plurality of ropes instead of the telescopic bar 43 in the support member 42, and the mounting bar 44 may be suspended by the ropes. Good.
  • the fish With the cameras 40A and 40B fixed to the support member 42, for example, as shown in FIG. 3, the fish enter a ginger 48 in which the fish is aquaculture, and the fish are observed (in other words, the object to be measured). ) And the orientation of the lens determined to be appropriate for shooting a certain fish.
  • various methods can be considered as a method of arranging and fixing the support member 42 (cameras 40A and 40B) which has been made to enter into the raw fish 48 in an appropriate depth and direction of the lens.
  • any method is adopted.
  • the explanation is omitted.
  • the calibration of the cameras 40A and 40B is performed by an appropriate calibration method in consideration of the environment of the raw fish 48, the type of fish to be measured, and the like.
  • the description of the calibration method is omitted.
  • a method of starting imaging with the cameras 40A and 40B and a method of stopping imaging an appropriate method taking into consideration the performance of the cameras 40A and 40B and the environment of the production box 48 is adopted.
  • a fish observer manually starts shooting before entering the camera 40A, 40B into the ginger 48, and stops shooting manually after leaving the camera 40A, 40B from the ginger 48 .
  • the cameras 40A and 40B have a wireless communication or wired communication function
  • the camera 40A or 40B is communicably connected to an operating device capable of transmitting information for controlling the start and stop of shooting.
  • the photographing start and the photographing stop of the underwater cameras 40A and 40B may be controlled by the operation of the operation device by the observer.
  • a monitor device capable of receiving an image being photographed by one or both of the camera 40A and the camera 40B from the cameras 40A and 40B by wired communication or wireless communication may be used.
  • the observer can view the image being photographed by the monitor device.
  • the observer can change the shooting direction and the water depth of the cameras 40A and 40B while viewing the image being shot.
  • a portable terminal provided with a monitor function may be used as a monitor device.
  • the information processing apparatus 20 uses a photographed image of the camera 40A and a photographed image of the camera 40B photographed at the same time in the process of calculating the fish length.
  • a photographed image of the camera 40A and a photographed image of the camera 40B photographed at the same time in the process of calculating the fish length.
  • it is also possible It is preferable to take a picture.
  • light that is emitted for a short time by automatic control or manually by the observer may be used as a mark used for time alignment, and the cameras 40A and 40B may capture the light. Accordingly, based on the light captured in the captured image by the cameras 40A and 40B, it becomes easy to perform time alignment (synchronization) of the captured image by the camera 40A and the captured image by the camera 40B.
  • Images captured by the cameras 40A and 40B as described above are stored in a portable storage medium (for example, an SD (Secure Digital) card) and then taken from the portable storage medium to the information processing apparatus 20. Images captured by the cameras 40A and 40B may be captured by the information processing apparatus 20 by wired communication or wireless communication.
  • a portable storage medium for example, an SD (Secure Digital) card
  • the information processing apparatus 20 generally includes a control device 22 and a storage device 23, as shown in FIG. Further, the information processing apparatus 20 is connected to an input device (for example, a keyboard or a mouse) 25 which inputs information to the information processing apparatus 20 by an operation of an observer, for example, and a display device 26 which displays information. Furthermore, the information processing device 20 may be connected to an external storage device 24 separate from the information processing device 20.
  • an input device for example, a keyboard or a mouse
  • a display device 26 which displays information.
  • the information processing device 20 may be connected to an external storage device 24 separate from the information processing device 20.
  • the storage device 23 has a function of storing various data and a computer program (hereinafter also referred to as a program), and is realized by a storage medium such as a hard disk device or a semiconductor memory, for example.
  • the storage device 23 included in the information processing device 20 is not limited to one, and multiple types of storage devices may be included in the information processing device 20. In this case, a plurality of storage devices are collectively referred to. It is referred to as a storage device 23.
  • the storage device 24 also has a function of storing various data and computer programs, similarly to the storage device 23, and is realized by a storage medium such as a hard disk device or a semiconductor memory, for example.
  • the information processing apparatus 20 When the information processing apparatus 20 is connected to the storage device 24, appropriate information is stored in the storage device 24. Further, in this case, the information processing apparatus 20 appropriately executes a process of writing and reading information in the storage device 24. However, in the following description, the description of the storage device 24 is omitted.
  • the storage device 23 stores images captured by the cameras 40A and 40B in a state of being associated with information relating to the imaging condition such as information representing the captured camera and information of the imaging time.
  • the control device 22 is configured by, for example, a processor such as a CPU (Central Processing Unit).
  • the control device 22 can have the following functions, for example, by executing a computer program stored in the storage device 23 by the CPU. That is, the control device 22 includes, as functional units, a detection unit 30, a specification unit 31, a calculation unit 32, an analysis unit 33, and a display control unit 34.
  • the display control unit 34 has a function of controlling the display operation of the display device 26. For example, when the display control unit 34 receives from the input device 25 a request to reproduce the photographed image of the camera 40A, 40B, the display control unit 34 reads the photographed image of the camera 40A, 40B according to the request from the storage device 23 Is displayed on the display unit 26.
  • FIG. 4 is a view showing a display example of photographed images of the cameras 40A and 40B in the display device 26. As shown in FIG. In the example of FIG. 4, the photographed image 41A by the camera 40A and the photographed image 41B by the camera 40B are displayed side by side by the two-screen display.
  • the detection unit 30 has a function of prompting the observer to input information specifying the fish to be measured in the captured images 41A and 41B displayed (reproduced) on the display device 26.
  • the detection unit 30 uses the display control unit 34 to “specify (select) the fish to be measured” on the display device 26 on which the photographed images 41A and 41B are displayed as shown in FIG. 4. Display a message to that effect.
  • the observer operates the input device 25
  • the fish to be measured are surrounded by the frames 50 and 51 as shown in FIG. 5 in each of the photographed images 41A and 41B.
  • the fish to be measured is set to be specified.
  • the frames 50 and 51 have, for example, a rectangular shape (including a square), and the size and the aspect ratio thereof can be changed by the observer.
  • Frames 50 and 51 are inspection ranges to be subjected to detection processing performed by the detection unit 30 on a captured image.
  • the detection unit 30 has a function of receiving positional information of the frames 50 and 51 in the photographed images 41A and 41B set by the observer.
  • captured image 41A, 41B is in the state which has stopped still in the pause state.
  • a screen area (for example, the screen area on the left side in FIGS. 4 and 5) for displaying one side of the photographed images 41A and 41B is set as an operation screen, and a screen area for displaying the other side (for example, FIG. The screen area on the right in 5) may be set as a reference screen.
  • the detection unit 30 displays the frame 51 in the captured image 41A of the reference screen that represents the same area as the area designated by the frame 50 in the captured image 41B based on the interval information indicating the interval between the cameras 40A and 40B. It may have a function of calculating the position.
  • the detection unit 30 changes the position and the size of the frame 51 in the captured image 41A by following the position and the size. May be provided.
  • the detection unit 30 may have a function of displaying the frame 51 on the captured image 41A after the position and the size of the frame 50 are determined in the captured image 41B.
  • the detection unit 30 displays the frame 51 after the function of changing the position and size of the frame 51 following the adjustment of the position and size of the frame 50 and the position and size of the frame 50 are determined.
  • the functions may be provided together and, for example, the functions selected on the side of the observer may be performed.
  • the function of setting the frame 51 in the photographed image 41A based on the frame 50 designated in the photographed image 41B as described above is a range following unit as represented by a dotted line in FIG. 1 instead of the detection unit 30. 35 may be performed.
  • the detection unit 30 further has a function of detecting a pair of feature portions in the fish to be measured in the frames 50 and 51 designated as the investigation range in the photographed images 41A and 41B.
  • the head and tail of the fish are set as a pair of feature parts.
  • various methods for detecting the head and tail of a fish that is a characteristic part from the photographed images 41A and 41B are adopted, One example is as follows.
  • reference data For the head and tail of the type of fish to be measured, a plurality of reference data as shown in FIG. These reference data are reference part images in which sample images of the head and tail of the fish as the characteristic parts are displayed.
  • teacher data an image of an area in which each characteristic region of the head and tail is photographed is extracted as teacher data (teacher image) from a large number of photographed images in which fish of the type to be measured are photographed. It is created by machine learning using the teacher data.
  • the information processing apparatus 20 measures the length between the head and tail of the fish as the length of the fish. From this, the head and tail of the fish are the portions that become both ends of the measurement portion when measuring the fish length. In consideration of this, here, when measuring the fish length, reference is made by machine learning using teacher data extracted so that each measurement point of the head and tail, which are both ends of the measurement part of the fish, will be the center. Data is created. Thus, as shown in FIG. 6, the center of the reference data has the meaning of representing the measurement point P of the head or tail of the fish.
  • the area in which the head and tail are simply photographed is extracted as teacher data, and the reference data is created based on the teacher data.
  • the center of the reference data does not necessarily represent the measurement point P. That is, in this case, the center position of the reference data does not have the meaning of representing the measurement point P.
  • the detection unit 30 further has a function of causing the display device 26 to clearly indicate the positions of the head and tail of the fish, which are the detected characteristic portions, using the display control unit 34.
  • FIG. 8 shows a display example in which portions of the head and tail of the detected fish are clearly indicated by the frames 52 and 53 in the display device 26.
  • the identifying unit 31 has a function of identifying coordinates representing the position in the coordinate space of the pair of feature portions (that is, the head and tail) of the fish to be measured detected by the detecting unit 30.
  • the identification unit 31 receives, from the detection unit 30, display position information indicating the display position at which the head and tail of the fish to be measured detected by the detection unit 30 are displayed in the captured images 41A and 41B.
  • the specifying unit 31 reads, from the storage device 23, interval information indicating an interval between the cameras 40A and 40B (that is, the imaging positions). Then, the specifying unit 31 specifies (calculates) coordinates in the coordinate space of the head and tail of the fish to be measured by triangulation using the information.
  • the identification unit 31 determines the center of the feature portion detected by the detection unit 30.
  • the display position information of the photographed images 41A and 41B in which is displayed is used.
  • the calculation unit 32 is represented in FIG. 9 between the paired feature parts (head and tail) using the space coordinates of the feature parts (head and tail) of the fish to be measured specified by the specification part 31. It has a function to calculate the interval L as the length of the fish to be measured.
  • the calculator 32 stores the length L of the fish thus calculated by the calculator 32 in the storage device 23 in a state associated with predetermined information such as observation date and time, for example. Ru.
  • the following situation may occur due to the surrounding condition of the fish to be measured.
  • One of the concerns is that, as shown in FIG. 10A, the head of the fish M1 to be measured is detected as the characteristic site H by the detection unit 30, but the tail is overlapped with other fish M3 and M4, etc.
  • the tail of the other fish M2 may be detected as the feature site T by the detection unit 30 without being detected.
  • the calculating unit 32 can not accurately calculate the length of the fish M1 to be measured.
  • the detection unit 30 not only detects the head and tail of the fish M1 to be measured as the characteristic portions H and T, respectively, but also the other The heads and tails of the fish M3 and M4 may be detected as the characteristic parts H and T, respectively.
  • the detection unit 30 detects not only the correct paired feature portions (combination of head and tail) H and T in the fish to be measured but also the wrong paired feature portions H and T (combination) Resulting in.
  • the calculating unit 32 does not calculate the length L of the fish, or calculates a plurality of lengths L of the fish, due to the inconvenience that a plurality of pairs of the characteristic portions H and T are detected. The problem arises that it is difficult to recognize the correct length of the fish M1.
  • the calculation unit 32 has a function of suppressing the occurrence of a situation in which an incorrect length of a fish to be measured is calculated even if the situation shown in FIGS. 10A and 10B occurs.
  • the occurrence frequency can be suppressed to a low level by, for example, adjusting the size of the survey range to the size of the size of the fish to be measured, as shown in FIG. 10A or 10B. Seems to be. However, in this case, it takes time and effort, for example, for the observer (measurer) to adjust the size of the survey range for each fish to be measured.
  • the calculating unit 32 has a function of determining whether or not the combination of the characteristic portions (head and tail) detected as a pair by the detecting unit 30 is correct as follows using the inclination of the fish.
  • the calculation unit 32 generates a virtual line segment as shown in FIG. 11A connecting the characteristic portions (head and tail) detected as a pair as the inclination survey line K using the coordinates obtained by the identification unit 31. (Detect) When there are a plurality of combinations of feature parts (head and tail) that can be paired, the calculation unit 32 checks the inclination for each combination of feature parts (head and tail) that can be paired. Generate a line For example, as shown in FIG. 10B, when there are a plurality of combinations of characteristic portions (head and tail) that can be paired within the survey range, the calculation unit 32 calculates a plurality of inclination survey lines K1 to K4 as shown in FIG. 11B. Generate
  • the inclination of the fish with respect to the virtual reference line (in the example of FIG. 11A, the horizontal line of the photographed image) S as shown in FIG. 11A in the photographed image is defined as shown in FIG. That is, the inclination of the fish is roughly roughly divided into rightward and leftward directions, and is further represented by an angle formed by the direction from the caudal side to the head with respect to the virtual reference line S with reference to the caudal side of the fish.
  • relationship data (angle reference data) between the reference image of the characteristic portion and the reference angle of the inclination of the fish as shown in FIG. 13A and FIG. 13B are stored in advance in the storage device 23 as inclination angle detection data.
  • the reference images of the respective feature parts of the head and the tail are divided into six classes, and in the tilt angle detection data, the reference angles are associated with the reference images of the respective classes. That is, the reference images of the head and tail features are classified into six classes: 0 °, 45 °, and -45 ° facing right and 0 °, 45 ° and -45 ° facing left.
  • FIG. 12 FIG. 13A, and FIG.
  • the inclination angle of the fish is divided into the left direction and the right direction, but the angle not divided into the left direction and the right direction (for example, 0 °, 45 °, It may be expressed by 135 °, 180 °, 225 °, 315 °).
  • the relationship data between the image of the characteristic portion and the inclination angle of the fish as shown in FIGS. 13A and 13B is, for example, a machine using many teacher data (teacher image) which is a photographed image of the fish to be measured in ginger 48 It is generated by learning.
  • the calculation unit 32 collates the image of the characteristic portion in the captured image detected by the detection unit 30 with inclination angle detection data as shown in FIG. 13A and FIG. 13B, and detects a reference angle that matches the characteristic portion.
  • the reference angle that matches the image of the characteristic region H of the head in the captured image is the left direction angle -45 ° (225 °).
  • the inclination of the fish having the image of the head characteristic site H is estimated to be leftward -45 ° (225 °).
  • the reference angle detection data that the reference angle that matches the image of the tail feature site T in the captured image is the left-facing angle 0 ° (180 °).
  • the inclination of the fish having the image of the tail feature site T is estimated to be 0 ° (180 °) facing left.
  • the calculation unit 32 detects an angle formed by the virtual reference line S and the inclination survey line K.
  • the calculation unit 32 is a virtual reference with the characteristic portion T of the fish tail detected by the detection unit 30 as an intersection as shown in FIG. 11A.
  • the angle ⁇ t formed by the line S and the inclination survey line K is calculated using the coordinates obtained by the identification unit 31.
  • the calculation unit 32 compares the angle ⁇ t with each of the reference angle of the head and the reference angle of the tail detected from the tilt angle detection data, and the angle ⁇ t is a reference angle or includes a reference angle. It is determined whether the reference angle is within the allowable range (for example, reference angle ⁇ 15 °). In other words, the calculation unit 32 determines whether the angle ⁇ t is an angle according to the inclination angle of the fish to be measured.
  • the calculation unit 32 calculates the characteristic portions H and T.
  • the combination of is judged to be the correct combination of head and tail in the fish to be measured.
  • the calculating unit 32 makes use of the space coordinates of the feature portion (head and tail) of the fish to be measured identified by the identifying unit 31 to form a pair of feature portions (head and tail). The distance between the centers of) is calculated as the length L of the fish to be measured.
  • the calculation unit 32 determines that the combination of the characteristic portions H and T is the correct head of the fish to be measured. Judge that it is not a combination of tails. In this case, the calculation unit 32 does not perform calculation to calculate the length L of the fish.
  • the angle ⁇ t is leftward -50 ° (230 °) and does not match the leftward angle 0 ° (180 °), which is a reference angle corresponding to the tail feature T. That is, in this case, the calculation unit 32 determines that the combination of the characteristic portions H and T is not the combination of the head and tail in the fish to be measured, and does not perform the calculation for calculating the fish length L.
  • the calculation unit 32 may cause the display device 26 to display a message indicating that calculation can not be performed by the control operation of the display control unit 34.
  • the calculation unit 32 detects a plurality of inclination survey lines K1 to K4 within the investigation range in the captured image as illustrated in FIG. 11B, the inclination inspection lines K1 to K4 with respect to the virtual reference line S are similarly to the above.
  • the angles ⁇ t1 to ⁇ t4 of the above are calculated using the coordinates obtained by the specifying unit 31.
  • the calculation unit 32 detects the reference angles of the head and the tail from the tilt angle detection data based on the images of the characteristic portions T and H.
  • FIG. 14 is a table showing the angles ⁇ t1 to ⁇ t4 of the inclination survey lines K1 to K4 and the reference angles of the head and the tail.
  • the calculation unit 32 determines whether the detected angles ⁇ t1 to ⁇ t4 as shown in FIG. 14 are reference angles of the corresponding head and tail or within a reference angle allowable range including the reference angles, respectively. to decide.
  • the calculation unit 32 detects the inclination inspection line It is determined that the characteristic portions H and T of the head and tail that are the basis of (line segment) are the correct combination of the fish to be measured. In the example of FIG.
  • the calculation unit 32 determines that the head and tail characteristic portions H and T that are the basis of the inclination inspection line K2 are a correct combination of the fish to be measured. Then, the calculating unit 32 uses the space coordinates of the characteristic portion (head and tail) of the fish to be measured specified by the specifying unit 31 to measure the distance between the characteristic portions (head and tail) forming a pair. Calculated as the fish length L.
  • the calculation unit 32 may cause the display device 26 to display a message indicating that calculation can not be performed by the control operation of the display control unit 34.
  • the calculation unit 32 detects a plurality of characteristic portions forming a pair of head and tail as a correct combination, it may have a function in consideration of that case. For example, when the calculation unit 32 detects a plurality of feature portions that form a head-to-tail pair as a correct combination, the calculation unit 32 measures the spacing L between the head-to-tail pair of feature portions that is the correct combination. Calculated as the length of the target fish.
  • the calculating unit 32 detects a plurality of characteristic portions forming a head-to-tail pair as a correct combination, the characteristic portions forming the pair closest to the camera using the coordinates of the characteristic portions by the specifying unit 31 The interval between them may be calculated as the length L of the fish to be measured.
  • the analysis unit 33 has a function of executing a predetermined analysis using a plurality of pieces of information of the fish length L stored in the storage device 23 and the information associated with the information. For example, the analysis unit 33 calculates an average value of the lengths L of a plurality of fish in the live fish 48 at the observation date or an average value of the lengths L of the fish to be detected. In addition, as an example in the case of calculating the average value of the length L of the fish to be detected, the detection target is calculated from images of fish to be detected in a plurality of frames of a moving image captured in a short time such as 1 second. Multiple lengths L of fish are utilized.
  • the analysis unit 33 may calculate the relationship between the fish length L and the number of fish in the raw fish 48 (fish number distribution in fish length). Furthermore, the analysis unit 33 may calculate the temporal transition of the fish length L representing the growth of the fish.
  • FIG. 15 is a flowchart showing a processing procedure related to calculation (measurement) of the fish length L performed by the information processing apparatus 20.
  • the detection unit 30 of the information processing device 20 receives information specifying the investigation range (frames 50 and 51) in the photographed image 41B on the operation screen (step S101), the investigation of the photographed images 41A and 41B in the reference screen The position of the range (frames 50, 51) is calculated. Then, the detection unit 30 detects a predetermined feature site (head and tail) in the frames 50 and 51 of the captured images 41A and 41B using, for example, reference data (step S102).
  • the identifying unit 31 identifies coordinates in the coordinate space by triangulation, using, for example, interval information and the like between the cameras 40A and 40B (shooting positions), for the detected head and tail feature portions Step S103).
  • the calculation unit 32 forms the reference angle of the inclination inspection line (line segment) with respect to the virtual reference line S as described above It confirms using an angle (reference angle tolerance
  • the calculating unit 32 calculates the distance L between the paired characteristic portions (head and tail) detected as correct by the detecting unit 30 as the fish length using the coordinates specified by the specifying unit 31 (step S105). After that, the calculation unit 32 stores the calculation result in the storage device 23 in a state where the calculation result is associated with predetermined information (for example, shooting date and time) (step S106).
  • control device 22 of the information processing device 20 determines whether an instruction to end the measurement of the fish length L has been input, for example, by the operation of the input device 25 by the observer (step S107). And the control apparatus 22 waits for the measurement of the length L of the following fish, when the instruction
  • the information processing apparatus 20 has a function of detecting the head and tail regions of the fish necessary for measuring the fish length L in the captured images 41A and 41B of the cameras 40A and 40B by the detection unit 30. There is. Furthermore, the information processing apparatus 20 has a function of specifying the coordinates in the coordinate space representing the position of the detected head and tail of the fish by the specifying unit 31. Furthermore, the information processing apparatus 20 has a function of calculating the distance L between the head and the tail of the fish as the length of the fish based on the specified coordinates by the calculation unit 32.
  • the information processing apparatus 20 calculates the length L of the fish by the observer using the input device 25 to input information on the range (frames 50 and 51) of the surveyed object in the photographed images 41A and 41B.
  • Information on the length L of the fish can be provided to the observer.
  • the observer can easily obtain information on the fish length L by inputting information on the range (frames 50 and 51) to be examined in the photographed images 41A and 41B to the information processing apparatus 20. .
  • the information processing apparatus 20 can further improve the reliability of the measurement of the fish length L.
  • the information processing apparatus 20 has a function of detecting a characteristic part within the designated investigation range (frames 50 and 51). For this reason, the information processing apparatus 20 can reduce the processing load as compared to the case where the characteristic part is detected over the entire captured image.
  • the information processing apparatus 20 has a function of determining the investigation range (frame 51) of another photographed image by specifying the investigation range (frame 50) in one of the plurality of photographed images. It may be In this case, the information processing apparatus 20 can reduce the time and effort of the observer as compared to the case where the observer specifies the examination range in a plurality of photographed images.
  • the information processing apparatus 20 has a function of calculating, by the calculating unit 32, the interval between the paired characteristic sites detected as the combination of the head and tail characteristic sites being correct as the fish length L. For this reason, the information processing apparatus 20 can suppress erroneous calculation of the length L of the fish due to the combination of the erroneous characteristic portions.
  • the information processing apparatus 20 calculates the distance between the head and tail feature portions forming the pair closest to the camera as the fish length L. May be provided. In this case, the information processing apparatus 20 measures the fish length L based on the image of the fish assumed to be a clear image in the photographed image, so that the calculation accuracy of the fish length L can be enhanced.
  • the information processing apparatus 20 of the second embodiment includes a setting unit 55 as shown in FIG. 16 in addition to the configuration of the first embodiment.
  • the information processing apparatus 20 has the configuration of the first embodiment, in FIG. 16, the illustration of the identification unit 31, the calculation unit 32, the analysis unit 33, and the display control unit 34 is omitted. Further, in FIG. 16, the storage device 24, the input device 25 and the display device 26 are also omitted.
  • the setting unit 55 has a function of setting a survey range in which the detection unit 30 checks the position of the characteristic portion (head and tail) in the photographed images 41A and 41B.
  • the survey range is the information input by the observer in the first embodiment, whereas in the second embodiment, the setting unit 55 sets the survey range, so the observer inputs the survey range information. You don't have to.
  • the information processing apparatus 20 of the second embodiment can further enhance the convenience.
  • the storage device 23 stores, as information used by the setting unit 55 to set the survey range, information for determining the shape and size of the survey range.
  • the shape and size of the survey range are the frames 50 and 51 having the shapes and sizes as shown by the solid lines in FIG. 17, the information representing the shapes and the length and width of the frames 50 and 51
  • the length information is stored in the storage unit 23.
  • the frames 50 and 51 have the same shape and the same size.
  • the frames 50 and 51 are, for example, a range having a size corresponding to the size of one fish in the photographed image considered to be appropriate for measurement by the observer, and the respective lengths of the vertical and horizontal thereof are , Can be changed by the operation of the input device 25 by the observer or the like.
  • a photographed image of the entire object to be measured (that is, the fish here) is stored as a sample image.
  • a plurality of sample images having different imaging conditions are stored.
  • the sample image of the entire object (fish body) to be measured is also machine learning using as the teacher data (teacher image) a photographed image obtained by photographing a large number of objects to be measured, as in the sample image of the characteristic part It can be obtained by
  • the setting unit 55 sets the examination range as follows. For example, when the observer inputs the information for requesting the measurement of the length by the operation of the input device 25, the setting unit 55 reads the information on the frames 50 and 51 from the storage device 23.
  • the information requesting the measurement of the length may be, for example, information instructing to pause the image during reproduction of the captured images 41A and 41B, or reproduction of the moving image during stop of the captured images 41A and 41B. It may be information instructing the Further, the information requesting the measurement of the length may be information indicating that the mark of “measurement start” displayed on the display device 26 is instructed by the operation of the input device 25 of the observer. Furthermore, the information requesting the measurement of the length may be information indicating that the operation (for example, the keyboard operation) of the predetermined input device 25 meaning the start of the measurement has been performed.
  • the setting unit 55 reads the information on the frames 50 and 51, and then, in the photographed images 4A and 4B, the frames 50 and 51 having the shape and size represented in the read information are displayed in the frame A1 ⁇ Frames 50 and 51 are sequentially moved at a predetermined interval, such as frame A 2 ⁇ frame A 3 ⁇ ... ⁇ frame A 9 ⁇ .
  • the interval of movement of the frames 50 and 51 may have, for example, a configuration that can be changed as appropriate by the observer.
  • the setting unit 55 moves the frames 50 and 51, and the degree of matching (similarity) between the photographed image portion in the frames 50 and 51 and the sample image of the object to be measured as shown in FIGS. Is determined by, for example, a method used in the template matching method. Then, the setting unit 55 sets the frames 50 and 51 in which the matching degree is equal to or higher than a threshold (for example, 90%) as the examination range in the photographed images 4A and 4B. For example, in the example of the photographed image shown in FIG. 20, the setting unit 55 sets two examination ranges (frames 50 and 51) in one photographed image.
  • a threshold for example, 90%
  • the detection unit 30 executes a process of detecting a characteristic portion for each of two investigation ranges, and the specifying unit 31 determines the space of the characteristic portion in the coordinate space. Identify the coordinates. Then, the calculation unit 32 determines, for each of the two examination ranges, whether or not the pair (combination) of the detected head and tail feature parts is correct, and the interval between the correct pair of feature parts (here, Calculate the fish length L). In addition, for example, when the information instructing the temporary stop of the image is input as the information requesting the measurement of the length, the setting unit 55 sets the investigation range in the photographed image in the temporary stop. By setting the examination range in this manner, as described above, the distance between the paired feature portions is calculated.
  • the setting unit 55 sets the investigation range continuously for the moving image being reproduced. By setting the examination range in this manner, as described above, the distance between the paired feature portions is calculated.
  • the setting unit 55 provisionally determines the position of the investigation range set as described above, specifies the position of the investigation range (frames 50 and 51) of the provisional determination on the photographed images 4A and 4B, and confirms the investigation range. May be provided on the display device 26 by the display control unit 34. And the setting part 55 has the information to the effect of having confirmed the position (for example, that the frames 50 and 51 surround the same fish etc.) of the investigation range (frames 50 and 51) by operation of the input device 25 by the observer. If entered, the position of the survey area may be determined.
  • the setting unit 55 When the setting unit 55 receives information indicating that the position of the survey range (frames 50, 51) is to be changed by the operation of the input device 25 by the observer, the position of the survey range (frames 50, 51) is set.
  • the position of the frames 50 and 51 changed by the observer may be determined as the search range.
  • the configuration other than the above in the information processing device 20 and the length measurement system of the second embodiment is the same as that of the information processing device 20 of the first embodiment.
  • the information processing apparatus 20 and the length measurement system of the second embodiment have the same configuration as that of the first embodiment, so that the same effect as that of the first embodiment can be obtained. Moreover, since the information processing apparatus 20 and the length measurement system of the second embodiment include the setting unit 55, it is not necessary for the observer to input the information for determining the investigation range, and the time and effort of the observer Can be reduced. Thereby, the information processing apparatus 20 and the length measurement system of the second embodiment can further enhance the convenience regarding the measurement of the length of the object.
  • the information processing apparatus 20 synchronizes the captured images 41A and 41B, and then reproduces the length L of the fish by the setting unit 55, the detecting unit 30, the identifying unit 31, and the calculating unit 32 while reproducing the captured images 41A and 41B. It is possible to continuously perform the process of calculation until the end of reproduction.
  • various methods can be considered as a method of starting a series of processes in which the information processing apparatus 20 continuously performs reproduction of a captured image and calculation of a fish length from the synchronization of images as described above. For example, when the start of the process is instructed by the operation of the input device 25, the information processing device 20 may start the series of processes.
  • the information processing device 20 may start the above-described series of processing by detecting the registration. . Furthermore, when the photographed images 41A and 41B to be reproduced are selected, the information processing apparatus 20 may start the above-described series of processing based on the selection information. Here, among such various methods, an appropriate method may be adopted.
  • the information processing apparatus 20 has the head and tail feature portions of the pair as described in the first embodiment. Since correctness can be confirmed, the situation which calculates the space
  • the present invention is not limited to the first and second embodiments, and various embodiments can be adopted.
  • the information processing apparatus 20 includes the analysis unit 33.
  • the analysis of the information obtained by the observation of the fish length L is different from the information processing apparatus 20.
  • the processing may be performed by the information processing apparatus, and in this case, the analysis unit 33 may be omitted.
  • the paired features are the head and tail of the fish, but for example, a pair of spine and belly is also detected as the paired features. It is possible to calculate not only the length between the head and tail but also the length between the dorsal fin and the ventral fin.
  • the same detection method as the detection of the head and the tail can be used.
  • the length-weight relationship can be obtained from which the weight of the fish can be estimated based on the lengths. If it is determined, the analysis unit 33 may estimate the weight of the fish based on the calculated lengths.
  • the combination of the parts of the object detected as the paired characteristic parts as described above is not limited to the combination of the head and the tail, and is appropriately set according to the part of the object to be measured which measures the length.
  • FIG. 6 is given as the reference data of the feature site, but the types of reference data of the feature site are more as shown in FIG. 22 to FIG. There may be many.
  • FIGS. 22 and 23 show examples of reference data on fish heads
  • FIGS. 24 and 25 show examples of reference data on fish tails.
  • a reference data of a fish tail an image of a fish tail containing a bend may be further included.
  • data of a parting of the head or tail of the fish that is not seen in the captured image may be given as reference data that is not to be detected.
  • the type and number of reference data are not limited.
  • the teacher data when creating a sample image of the feature site (head and tail) or the entire object to be measured (fish body) by machine learning using teacher data,
  • the teacher data may be reduced. For example, when a photographed image of a left-facing fish as shown in FIG. 21 is acquired as teacher data, the image of the left-facing fish is horizontally reversed so that teacher data of the right-facing fish can be obtained. Good.
  • Image processing may be performed to correct distortion of the fish due to the above.
  • the information processing apparatus 20 may perform image processing for correcting a captured image in consideration of imaging conditions such as water depth and brightness of an object.
  • the image processing similar to the above may be performed at an appropriate timing such as before the information processing apparatus 20 starts the process of determining the investigation range.
  • the information processing apparatus 20 performs image processing (image correction) on the captured image in consideration of the imaging environment, whereby the accuracy of measuring the length of the object to be measured can be further enhanced.
  • the information processing apparatus 20 can obtain an effect that the number of reference data can be reduced by using the photographed image thus subjected to the image correction.
  • the information processing apparatus 20 having the configuration described in the first and second embodiments is not limited to the other. It is applicable also to an object. That is, if the information processing apparatus 20 according to the first and second embodiments is not a fish but an object having a feature that allows both end portions of the portion whose length is to be measured to be distinguishable from other portions, It can also be applied to length measurement.
  • the calculation unit 32 when determining the correctness of the pair of the head and tail feature portions detected by the detection unit 30, the calculation unit 32 is a virtual line connecting the head and tail feature portions.
  • the minutes are used as a slope survey line.
  • the calculation unit 32 may use a virtual straight line or a virtual half straight line passing through the head and tail feature portions detected by the detection unit 30 as the inclination inspection line.
  • the inclination angle detection data used when the calculation unit 32 determines whether the head / tail feature pair detected by the detection unit 30 is correct or false are six classes. It is the related data of the reference image and the reference angle divided into. Instead of this, the inclination angle detection data may be linear relationship data between the reference image and the reference angle.
  • the calculating unit 32 uses a horizontal line in the captured image as a virtual reference line when determining whether the pair of the head and tail feature portions detected by the detecting unit 30 is correct or not. doing. Instead of this, the calculation unit 32 may use a vertical line in the captured image as a virtual reference line. In addition, the calculation unit 32 may use a diagonal line in the rectangular captured image as a virtual reference line. Thus, the virtual reference line is not limited to the horizontal line in the captured image.
  • the calculation unit 32 detects reference angles from the images of the characteristic portions of the head and the tail detected by the detection unit 30, and detects the angle of the inclination inspection line. Contrast with each of the two reference angles. Then, the calculation unit 32 determines that the combination of the head and tail feature parts is correct when the angle of the inclination survey line matches both of the two reference angles, and between the head and tail feature parts. The interval is calculated as the length L of the fish to be measured.
  • the calculation unit 32 may determine whether or not the combination of the paired feature portions is correct.
  • the configuration of the information processing apparatus of the other embodiment according to the present invention is simplified and shown in FIG.
  • the information processing apparatus 70 in FIG. 26 includes a detection unit 71 and a calculation unit 72 as functional units.
  • the information processing device 70 constitutes a length measurement system 75 together with the photographing device 76 as shown in FIG.
  • the photographing device 76 has a configuration for photographing an object to be measured.
  • the detection unit 71 of the information processing device 70 has a function of detecting, from the image captured by the imaging device 76, a feature region which is a pair of objects to be measured and has a predetermined feature.
  • the calculation unit 72 is a virtual line segment or a virtual straight line or a virtual half straight line connecting between the characteristic portions detected as a pair by the detection unit 71 in the captured image by the imaging device 76, and a virtual reference determined in advance. It has a function to calculate the angle formed by the line. Furthermore, the calculation unit 72 has a function of determining whether the calculated angle is an angle corresponding to the inclination of the object to be measured, which is calculated based on the image of the characteristic portion in the captured image, with respect to the virtual reference line. ing.
  • the calculation unit 72 forms a pair that is the basis of the inclination inspection line having an inclination corresponding to the inclination of the object to be measured. It has a function to calculate the length between the feature parts.
  • the information processing device 70 and the length measurement system 75 can obtain the effect of being able to easily and accurately detect the length of the object to be measured based on the photographed image by providing the above configuration. it can.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

撮影画像に基づき測定対象の物体の長さを容易に且つ精度良く検知できる技術を提供すべく、情報処理装置70は検知部71と算出部72を備える。検知部71は、測定対象の物体が撮影されている撮影画像から、測定対象の物体における対を成す特徴部位を検知する。算出部72は、撮影画像において、検知部71により対として検知された特徴部位間を結ぶ傾き調査線と、予め定められた仮想基準線との成す角度を算出する。算出部72は、算出した角度が、撮影画像における特徴部位の画像と角度参考データに基づいて検知される測定対象の物体の傾きに応じた角度であるか否かを判断する。算出部72は、算出した角度が、測定対象の物体の傾きに応じた角度である場合に、傾き調査線の基となった対を成す特徴部位間の長さを算出する。

Description

情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体
 本発明は、測定対象の物体を撮影した撮影画像から物体の長さを測定する技術に関する。
 魚の養殖技術の向上のために、養殖している魚の成長を観測することが行われている。特許文献1には、魚の観測に関わる技術が開示されている。この特許文献1における技術では、水槽の上方側(あるいは底側)と横側から撮影された魚の背側(あるいは腹側)の撮影画像と、頭側の正面の撮影画像とに基づいて、魚の頭、胴体、尾ひれ等の部位の形状や大きさが部位毎に推定される。その魚の部位毎の形状や大きさの推定は、各部位毎に与えられている複数のテンプレート画像を利用して行われる。すなわち、各部位毎の撮影画像がそれぞれ各部位毎のテンプレート画像に照合され、撮影画像に合うテンプレート画像中の魚の部位における大きさ等の既知の情報に基づいて、魚の各部位毎の大きさ等が推定される。
 特許文献2には、水中の魚を動画カメラと静止画カメラによって撮影し、撮影された動画および静止画に基づいて、魚影を検知する技術が開示されている。また、特許文献2には、画像サイズ(画素数)によって、魚のサイズを推定する構成が示されている。
特開2003-250382号公報 特開2013-201714号公報
 特許文献1に記載されている技術では、テンプレート画像中の魚の部位における既知の大きさの情報に基づいて魚の部位の大きさが推定されている。つまり、特許文献1における技術では、テンプレート画像中の魚の部位の大きさが測定対象の魚の部位の大きさとして検知されているにすぎず、測定対象の魚の部位の大きさを測定していないので、大きさの検知精度を高めにくいという問題が生じる。
 特許文献2には、魚影サイズとして画像サイズ(画素数)を検知する構成は示されているものの、魚の実際の大きさを検知する構成は開示されていない。
 本発明は上記課題を解決するために考え出された。すなわち、本発明の主な目的は、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できる技術を提供することにある。
 上記目的を達成するために、本発明に係る情報処理装置の一態様は、
 測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する検知部と、
 前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出部と
を備える。
 また、本発明に係る長さ測定システムの一態様は、
 測定対象の物体を撮影する撮影装置と、
 前記撮影装置により撮影された撮影画像を利用して、前記物体における予め定められた特徴を持つ対を成す特徴部位間の長さを算出する情報処理装置と
を備え、
 前記情報処理装置は、
 前記測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する検知部と、
 前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出部とを備える。
 さらに、本発明に係る長さ測定方法の一態様は、
 測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知し、
 前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する。
 さらにまた、本発明に係るプログラム記憶媒体の一態様は、
 測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する処理と、
 前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する処理とをコンピュータに実行させるコンピュータプログラムを記憶する。
 本発明によれば、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できる。
本発明に係る第1実施形態の情報処理装置の構成を簡略化して表すブロック図である。 第1実施形態の情報処理装置に撮影画像を提供する撮影装置(カメラ)を支持する支持部材とカメラの搭載例を図2Bと共に説明する図である。 第1実施形態の情報処理装置に撮影画像を提供する撮影装置(カメラ)を支持する支持部材とカメラの搭載例を図2Aと共に説明する図である。 第1実施形態において、カメラが測定対象の物体である魚を撮影する態様を説明する図である。 測定対象の物体である魚を撮影した撮影画像を表示装置に表示する表示態様の一例を説明する図である。 第1実施形態の情報処理装置の処理で使用する調査範囲の一例を説明する図である。 魚の長さ測定に利用する特徴部位の参考データの例を表す図である。 第1実施形態では参考データとして採用されない魚の撮影画像の例を説明する図である。 第1実施形態の情報処理装置が測定対象の魚の長さを測定する処理を説明する図である。 さらに、第1実施形態における測定対象の魚の長さを測定する処理を説明する図である。 調査範囲内に複数の測定対象の魚の画像があることに因る不具合の一例を説明する図である。 調査範囲内に複数の測定対象の魚の画像があることに因る不具合の別の例を説明する図である。 頭と尾の特徴部位の組み合わせ(対)の正誤を判断する手法を説明する図である。 さらに、頭と尾の特徴部位の組み合わせ(対)の正誤を判断する手法を説明する図である。 第1実施形態における魚の傾きの定義を説明する図である。 傾き角度検知用データの一例を説明する図である。 さらに、傾き角度検知用データの一例を説明する図である。 調査範囲内に複数の特徴部位の組み合わせが検知された場合における算出部による検知された角度の情報の一例を表す図である。 第1実施形態の情報処理装置における長さを測定する処理の手順を表すフローチャートである。 本発明に係る第2実施形態の情報処理装置の構成において特徴的な部分を抜き出して表すブロック図である。 第2実施形態の情報処理装置が撮影画像に調査範囲を確定する処理の一例を説明する図である。 第2実施形態において、調査範囲の確定に利用する参考データの例を表す図である。 さらに、調査範囲の確定に利用する参考データの例を表す図である。 第2実施形態の情報処理装置が撮影画像において確定した調査範囲の一例を表す図である。 参考データを教師付き機械学習により作成する場合における教師データの取得手法の一例を説明する図である。 測定対象の物体である魚の頭を検知する処理で利用する参考データの例を表す図である。 測定対象の物体である魚の頭を検知する処理で利用する参考データの例を表す図である。 測定対象の物体である魚の尾を検知する処理で利用する参考データの例を表す図である。 測定対象の物体である魚の尾を検知する処理で利用する参考データの例を表す図である。 本発明に係るその他の実施形態の情報処理装置の構成を簡略化して表すブロック図である。 本発明に係るその他の実施形態の長さ測定システムの構成を簡略化して表すブロック図である。
 以下に、本発明に係る実施形態を図面を参照しながら説明する。
 <第1実施形態>
 図1は、本発明に係る第1実施形態の情報処理装置の構成を簡略化して表すブロック図である。第1実施形態では、情報処理装置20は、図2Aに表されるような複数(2台)のカメラ40A,40Bによって撮影された測定対象の物体である魚の撮影画像から、魚の長さを算出する機能を備えている。この情報処理装置20は、カメラ40A,40Bと共に、長さ測定システムを構成する。
 第1実施形態では、カメラ40A,40Bは、動画を撮影する機能を備えている撮影装置であるが、動画撮影機能を持たずに例えば静止画を設定の時間間隔毎に断続的に撮影する撮影装置をカメラ40A,40Bとして採用してもよい。
 ここでは、カメラ40A,40Bは、図2Aに表されるような支持部材42に支持固定されることにより、図2Bに表されるように間隔を介して並設されている状態で、魚を撮影する。支持部材42は、伸縮棒43と、取り付け棒44と、取り付け具45A,45Bとを有して構成されている。この例では、伸縮棒43は、伸縮自在な棒部材であり、さらに、伸縮可能な長さ範囲内における使用に適切な長さで長さを固定できる構成を備えている。取り付け棒44は、例えばアルミニウム等の金属材料により構成されており、伸縮棒43に直交するように接合されている。取り付け棒44には、伸縮棒43との接合部分を中心にして対称となる部位にそれぞれ取り付け具45A,45Bが固定されている。取り付け具45A,45Bは、カメラ40A,40Bを搭載する搭載面46A,46Bを備え、当該搭載面46A,46Bに搭載されたカメラ40A,40Bを例えば螺子等により搭載面46A,46Bにがたつきなく固定する構成が設けられている。
 カメラ40A,40Bは、上述したような構成を持つ支持部材42に固定されることにより、予め設定された間隔を介して並設されている状態を維持することができる。また、第1実施形態では、カメラ40A,40Bに設けられているレンズが同じ方向を向き、かつ、レンズの光軸が平行となるように、カメラ40A,40Bは支持部材42に固定される。なお、カメラ40A,40Bを支持固定する支持部材は、図2A等に表される支持部材42に限定されない。例えば、カメラ40A,40Bを支持固定する支持部材は、支持部材42における伸縮棒43に代えて、1本あるいは複数本のロープを利用し、当該ロープによって取り付け棒44を吊下げる構成であってもよい。
 カメラ40A,40Bは、支持部材42に固定されている状態で、例えば図3に表されるように魚が養殖されている生簀48に進入し、魚の観測(換言すれば、測定対象の物体である魚の撮影)に適切と判断された水深およびレンズの向きで配設される。なお、生簀48に進入させた支持部材42(カメラ40A,40B)を適宜な水深およびレンズの向きで配設固定する手法には様々な手法が考えられ、ここでは、何れの手法を採用してもよく、その説明は省略する。また、カメラ40A,40Bのキャリブレーションは、生簀48の環境や測定対象の魚の種類等を考慮した適宜なキャリブレーション手法によって行われる。ここでは、そのキャリブレーション手法の説明は省略する。
 さらに、カメラ40A,40Bによる撮影を開始する手法および撮影を停止する手法は、カメラ40A,40Bの性能や生簀48の環境などを考慮した適宜な手法が採用される。例えば、魚の観測者(測定者)が、カメラ40A,40Bを生簀48に進入させる前に手動により撮影を開始させ、また、カメラ40A,40Bを生簀48から退出させた後に手動により撮影を停止させる。また、カメラ40A,40Bが無線通信あるいは有線通信の機能を備えている場合には、撮影開始と撮影停止を制御する情報を送信できる操作装置と、カメラ40A,40Bとを通信接続する。そして、観測者による操作装置の操作により、水中のカメラ40A,40Bの撮影開始と撮影停止が制御されてもよい。
 また、カメラ40Aとカメラ40Bの一方又は両方の撮影中の画像をカメラ40A,40Bから有線通信あるいは無線通信により受信可能なモニタ装置が用いられてもよい。この場合には、観測者は、モニタ装置により撮影中の画像を見ることが可能となる。これにより、例えば、観測者は、撮影中の画像を見ながら、カメラ40A,40Bの撮影方向や水深を変更することが可能となる。なお、モニタ機能を備えた携帯端末がモニタ装置として用いられてもよい。
 ところで、情報処理装置20は、魚の長さを算出する処理において、同じ時点に撮影されたカメラ40Aの撮影画像とカメラ40Bの撮影画像とを用いる。このことを考慮し、同じ時点に撮影されたカメラ40Aによる撮影画像とカメラ40Bによる撮影画像とを得やすくするために、撮影中に、時間合わせに用いる目印となる変化をもカメラ40A,40Bに撮影させることが好ましい。例えば、時間合わせに用いる目印として、自動制御あるいは観測者の手動によって短時間発光する光を利用することとし、カメラ40A,40Bがその光を撮影するようにしてもよい。これにより、カメラ40A,40Bによる撮影画像に撮影されたその光に基づき、カメラ40Aによる撮影画像と、カメラ40Bによる撮影画像との時間合わせ(同期)を行うことが容易となる。
 上述したようなカメラ40A,40Bにより撮影された撮影画像は、可搬型記憶媒体(例えば、SD(Secure Digital)カード)に格納された後に当該可搬型記憶媒体から情報処理装置20に取り込まれる。カメラ40A,40Bによる撮影画像は、有線通信あるいは無線通信によって情報処理装置20に取り込まれてもよい。
 情報処理装置20は、図1に表されるように、概略すると、制御装置22と、記憶装置23とを備えている。また、情報処理装置20は、例えば観測者の操作により情報を情報処理装置20に入力する入力装置(例えば、キーボードやマウス)25と、情報を表示する表示装置26に接続されている。さらに、情報処理装置20は、当該情報処理装置20とは別体の外付けの記憶装置24に接続されていてもよい。
 記憶装置23は、各種データやコンピュータプログラム(以下、プログラムとも記す)を記憶する機能を有し、例えば、ハードディスク装置や半導体メモリ等の記憶媒体により実現される。情報処理装置20に備えられる記憶装置23は一つには限定されず、複数種の記憶装置が情報処理装置20に備えられていてもよく、この場合には、複数の記憶装置を総称して記憶装置23と記す。また、記憶装置24も、記憶装置23と同様に、各種データやコンピュータプログラムを記憶する機能を有し、例えば、ハードディスク装置や半導体メモリ等の記憶媒体により実現される。なお、情報処理装置20が記憶装置24に接続されている場合には、記憶装置24には適宜な情報が格納される。また、この場合には、情報処理装置20は、適宜、記憶装置24に情報を書き込む処理および読み出す処理を実行するが、以下の説明では、記憶装置24に関する説明を省略する。
 第1実施形態では、記憶装置23には、カメラ40A,40Bによる撮影画像が、撮影したカメラを表す情報や、撮影時間の情報などの撮影状況に関わる情報と関連付けられた状態で格納される。
 制御装置22は、例えば、CPU(Central Processing Unit)等のプロセッサにより構成される。制御装置22は、例えばCPUが記憶装置23に格納されているコンピュータプログラムを実行することにより、次のような機能を有することができる。すなわち、制御装置22は、機能部として、検知部30と、特定部31と、算出部32と、分析部33と、表示制御部34とを備えている。
 表示制御部34は、表示装置26の表示動作を制御する機能を備えている。例えば、表示制御部34は、入力装置25から、カメラ40A,40Bの撮影画像を再生する要求を受け取った場合に、記憶装置23から要求に応じたカメラ40A,40Bの撮影画像を読み出し当該撮影画像を表示装置26に表示する。図4は、表示装置26におけるカメラ40A,40Bの撮影画像の表示例を表す図である。図4の例では、二画面表示により、カメラ40Aによる撮影画像41Aとカメラ40Bによる撮影画像41Bが並んで表示される。
 なお、表示制御部34は、表示装置26に同時に表示される撮影画像41A,41Bの撮影時点が同じになるように、撮影画像41A,41Bの同期が可能な機能を備える。例えば、表示制御部34は、カメラ40A,40Bに同時撮影された前述したような時間合わせの目印を利用して、観測者が撮影画像41A,41Bの再生コマを調整可能な機能を備える。
 検知部30は、表示装置26に表示(再生)されている撮影画像41A,41Bにおいて、測定対象の魚を指定する情報の入力を観測者に促す機能を備えている。例えば、検知部30は、表示制御部34を利用して、図4のように撮影画像41A,41Bが表示されている表示装置26に、「測定対象の魚を指定(選択)して下さい」旨のメッセージを表示させる。第1実施形態では、観測者が入力装置25を操作することにより、撮影画像41A,41Bのそれぞれにおいて、図5に表されるような枠50,51で測定対象の魚が囲まれることにより、測定対象の魚が指定されるように設定されている。枠50,51は、例えば長方形状(正方形を含む)と成し、その大きさおよび縦横比が観測者により可変可能となっている。枠50,51は、検知部30が撮影画像に行う検知処理の対象となる調査範囲である。検知部30は、観測者により設定された撮影画像41A,41Bにおける枠50,51の位置情報を受け付ける機能を備えている。なお、観測者が枠50,51によって測定対象の魚を指定する作業を実行している場合には、撮影画像41A,41Bは一時停止状態で静止している状態となっている。
 なお、撮影画像41A,41Bのうちの一方側を表示する画面領域(例えば図4、図5における左側の画面領域)が操作画面として設定され、他方側を表示する画面領域(例えば図4、図5における右側の画面領域)が参照画面として設定されていてもよい。また、検知部30は、カメラ40A,40B間の間隔を表す間隔情報に基づき、撮影画像41Bにおいて枠50により指定されている領域と同じ領域を表す参照画面の撮影画像41Aでの枠51の表示位置を算出する機能を備えていてもよい。この場合、検知部30は、撮影画像41Bにおいて枠50の位置や大きさが調整されている最中に、その位置や大きさに追従して撮影画像41Aにおける枠51の位置や大きさを可変する機能を備えていてもよい。あるいは、検知部30は、撮影画像41Bにおいて枠50の位置および大きさが確定した後に、枠51を撮影画像41Aに表示させる機能を備えていてもよい。さらにまた、検知部30は、枠50の位置や大きさの調整に追従して枠51の位置や大きさを可変する機能と、枠50の位置および大きさが確定した後に枠51を表示させる機能とを共に備え、例えば観測者により択一的に選択された側の機能を実行してもよい。また、上記のような撮影画像41Bにおいて指定された枠50に基づいて撮影画像41Aにおける枠51を設定する機能は、検知部30に代えて、図1の点線に表されるような範囲追従部35が実行してもよい。
 検知部30は、さらに、撮影画像41A,41Bにおいて調査範囲として指定された枠50,51内で、測定対象の魚における予め定められた特徴を持つ対を成す特徴部位を検知する機能を備えている。第1実施形態では、魚の頭と尾が対を成す特徴部位として設定されている。撮影画像41A,41Bから特徴部位である魚の頭と尾を検知する手法には様々な手法があり、ここでは、情報処理装置20の処理能力等を考慮した適宜な手法が採用されるが、その一例を挙げると、次のような手法がある。
 例えば、測定対象となる種類の魚の頭と尾について、魚の向きや形が異なる図6に表されるような複数の参考データが記憶装置23に格納されている。これら参考データは、特徴部位である魚の頭と尾のサンプル画像が表されている参考部位画像である。当該参考データは、測定対象となる種類の魚が撮影されている多数の撮影画像から、頭と尾のそれぞれの特徴部位が撮影されている領域の画像が教師データ(教師画像)として抽出され、当該教師データを利用した機械学習により作成される。
 第1実施形態の情報処理装置20は、魚の頭と尾との間の長さを魚の長さとして測定する。このことから、魚の頭と尾は、魚の長さを測定する際に測定部分の両端となる部位である。このことを考慮し、ここでは、魚の長さを測定する際に魚の測定部分の両端となる頭と尾のそれぞれの測定ポイントが中心となるように抽出された教師データを利用した機械学習により参考データが作成される。これにより、図6に表されるように、参考データの中心は、魚の頭あるいは尾の測定ポイントPを表すという意味を持つ。
 これに対し、測定ポイントPを考慮せずに、図7に表されるように単に頭と尾が撮影されている領域が教師データとして抽出され、当該教師データに基づいて参考データが作成された場合には、参考データの中心は測定ポイントPを表すとは限らない。つまり、この場合には、参考データの中心位置は、測定ポイントPを表すという意味を持たない。
 上述したような参考データと、撮影画像41A,41Bにおいて指定された調査範囲(枠50,51)内の画像とが照合されることにより、枠50,51において参考データに合う画像領域が検知される。
 検知部30は、さらに、表示制御部34を利用して、検知した特徴部位である魚の頭と尾の位置を表示装置26に明示させる機能を備えている。図8には、表示装置26において、検知された魚の頭と尾のそれぞれの部位が枠52,53により明示されている表示例が表されている。
 特定部31は、検知部30により検知された測定対象の魚における対を成す特徴部位(つまり、頭と尾)の座標空間における位置を表す座標を特定する機能を備えている。例えば、特定部31は、検知部30により検知された測定対象の魚の頭と尾が撮影画像41A,41Bにおいて表示されている表示位置を表す表示位置情報を検知部30から受け取る。また、特定部31は、記憶装置23から、カメラ40A,40B(つまり、撮影位置)間の間隔を表す間隔情報を読み出す。そして、特定部31は、それら情報を利用して、三角測量法によって測定対象の魚の頭と尾の座標空間における座標を特定(算出)する。この際、中心が測定ポイントPとなっている参考データを利用して、検知部30が特徴部位を検知している場合には、特定部31は、検知部30により検知された特徴部位の中心が表示されている撮影画像41A,41Bの表示位置情報を利用する。
 算出部32は、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)間の図9に表されるような間隔Lを測定対象の魚の長さとして算出する機能を備えている。この第1実施形態では、算出部32は、このように算出部32により算出された魚の長さLは、例えば観測日時等の予め定められた情報に関連付けられた状態で記憶装置23に格納される。
 ところで、測定対象の魚の周囲状況などの原因により、次のような事態が発生してしまうことが懸念される。懸念事項の一つは、図10Aに表されるように、測定対象の魚M1の頭は検知部30により特徴部位Hとして検知されたが、尾は他の魚M3,M4との重なり等に因り検知されず、他の魚M2の尾が検知部30により特徴部位Tとして検知されてしまうことがある。この場合には、誤った特徴部位H,Tの対(組み合わせ)が検知されてしまうので、算出部32は、測定対象の魚M1の長さを正確に算出することができない。
 また、別の懸念事項の一つは、図10Bに表されるように、検知部30が、測定対象の魚M1の頭と尾をそれぞれ特徴部位H,Tとして検知するだけでなく、他の魚M3,M4の頭や尾をも特徴部位H,Tとして検知してしまうことがある。この場合には、検知部30は、測定対象の魚における正しい対を成す特徴部位(頭と尾の組み合わせ)H,Tだけでなく、誤った特徴部位H,Tの対(組み合わせ)をも検知してしまう。この場合には、算出部32は、特徴部位H,Tの複数の対が検知される不都合に因り、魚の長さLを算出しない、あるいは、魚の長さLを複数算出してしまい測定対象の魚M1の正しい長さを認識することが難しいという問題が発生してしまう。
 算出部32は、図10Aや図10Bに表されるような事態が発生しても、測定対象の魚の誤った長さを算出してしまう事態の発生を抑制する機能を備えている。なお、図10Aや図10Bに表されるような事態は、例えば、調査範囲の大きさを測定対象の魚の大きさ程度の大きさに調整するなどの工夫により、発生頻度を低く抑えることが可能であると思われる。ただ、その場合には、測定対象の魚ごとに、例えば観測者(測定者)が調査範囲の大きさを調整するというような手間が掛かる。ここでは、そのような手間の軽減および誤算出の低下を図る手法を提案する。
 すなわち、算出部32は、検知部30により対として検知された特徴部位(頭と尾)の組み合わせが正しいか否かを魚の傾きを利用して次のように判断する機能を備えている。
 算出部32は、対として検知された特徴部位(頭と尾)間を結ぶ図11Aに表されるような仮想線分を特定部31により得られた座標を利用して傾き調査線Kとして生成(検知)する。なお、調査範囲内に、対と成り得る特徴部位(頭と尾)の組み合わせが複数有る場合には、算出部32は、対と成り得る特徴部位(頭と尾)の組み合わせ毎に、傾き調査線を生成する。例えば、図10Bのように、調査範囲内に対と成り得る特徴部位(頭と尾)の組み合わせが複数有る場合には、算出部32は、図11Bのように複数の傾き調査線K1~K4を生成する。
 第1実施形態では、撮影画像における図11Aに表されるような仮想基準線(図11Aの例では、撮影画像の横線)Sに対する魚の傾きが図12のように定義されている。つまり、魚の傾きは、大概に右向きと左向きに大別され、さらに、魚の尾側を基準とし当該尾側から頭に向かう方向が仮想基準線Sに対して成す角度によって表される。
 また、図13Aや図13Bのような特徴部位の参考画像と魚の傾きの参考角度との関係データ(角度参考データ)が傾き角度検知用データとして予め記憶装置23に記憶される。第1実施形態では、頭と尾のそれぞれの特徴部位の参考画像は6つのクラスに分けられ、傾き角度検知用データでは、各クラスの参考画像に参考角度が関連付けられている。つまり、頭と尾のそれぞれの特徴部位の参考画像は、右向きの0°,45°,-45°と、左向きの0°,45°,-45°との6つのクラスに分類されている。なお、図12、図13A、図13Bの例では、魚の傾き角度は左向きと右向きのそれぞれに分けて表す角度となっているが、左向きと右向きに分けない角度(例えば、0°,45°,135°,180°,225°,315°)で表してもよい。
 図13Aや図13Bのような特徴部位の画像と魚の傾き角度との関係データは、例えば、生簀48における測定対象の魚を撮影した撮影画像である多数の教師データ(教師画像)を利用した機械学習により生成される。
 算出部32は、検知部30により検知された撮影画像における特徴部位の画像を図13Aや図13Bのような傾き角度検知用データに照合し、特徴部位に合致する参考角度を検知する。例えば、図11Aの例では、撮影画像における頭の特徴部位Hの画像に合致する参考角度が傾き角度検知用データから左向き角度-45°(225°)であると検知される。換言すれば、頭の特徴部位Hの画像を持つ魚の傾きは、左向き-45°(225°)であると推定される。また同様に、撮影画像における尾の特徴部位Tの画像に合致する参考角度が傾き角度検知用データから左向き角度0°(180°)であると検知される。換言すれば、尾の特徴部位Tの画像を持つ魚の傾きは、左向き0°(180°)であると推定される。
 また、算出部32は、仮想基準線Sと傾き調査線Kとの成す角度を検知する。ここでは、魚の傾きは、魚の尾側を基準とした傾きであることから、算出部32は、図11Aのように、検知部30により検知された魚の尾の特徴部位Tを交点とした仮想基準線Sと傾き調査線Kとの成す角度θtを特定部31により得られた座標を利用して算出する。さらに、算出部32は、角度θtを、傾き角度検知用データから検知された頭の参考角度と尾の参考角度のそれぞれに対比し、角度θtが参考角度であるか、あるいは、参考角度を含む参考角度許容範囲内(例えば、参考角度±15°)であるか否かを判断する。換言すれば、算出部32は、角度θtが測定対象の魚の傾き角度に応じた角度であるか否かを判断する。
 そして、算出部32は、角度θtが頭の参考角度(参考角度許容範囲内)であり、かつ、角度θtが尾の参考角度(参考角度許容範囲内)である場合に、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせであると判断する。この場合には、算出部32は、前述したように、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)の中心部間の間隔を測定対象の魚の長さLとして算出する。
 これに対し、角度θtが頭と尾の一方又は両方の参考角度(参考角度許容範囲内)でない場合には、算出部32は、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせでないと判断する。この場合には、算出部32は、魚の長さLを算出する演算を行わない。図11Aの例では、角度θtは左向き-50°(230°)であり、尾の特徴部位Tに対応する参考角度である左向き角度0°(180°)と合致しない。つまり、この場合には、算出部32は、特徴部位H,Tの組み合わせは測定対象の魚における正しい頭と尾の組み合わせでないと判断し、魚の長さLを算出する演算を行わない。
 なお、測定対象の魚の長さLを算出しない場合には、例えば、算出部32は、表示装置26に、計算できない旨のメッセージを表示制御部34の制御動作によって表示させてもよい。
 また、算出部32は、図11Bのように、撮影画像における調査範囲内に複数の傾き調査線K1~K4を検知した場合には、上記同様に、仮想基準線Sに対する傾き調査線K1~K4の角度θt1~θt4を特定部31により得られた座標を利用して算出する。一方、算出部32は、各特徴部位T,Hの画像に基づいて傾き角度検知用データから頭と尾の参考角度を検知する。図14は、傾き調査線K1~K4の角度θt1~θt4および頭と尾の参考角度を表す表である。
 算出部32は、図14のように検知された角度θt1~θt4を、それぞれ、対応する頭と尾の参考角度であるか、あるいは、参考角度を含む参考角度許容範囲内であるか否かを判断する。そして、頭と尾の両方の特徴部位H,Tの参考角度(参考角度許容範囲内)と同じ角度を持つ傾き調査線(線分)を検知した場合に、算出部32は、その傾き調査線(線分)の基となった頭と尾の特徴部位H,Tが測定対象の魚の正しい組み合わせであると判断する。図14の例では、傾き調査線K2の基となった頭と尾の特徴部位H,Tの両方の参考角度と傾き調査線K2の角度θt2とが合致している。これにより、算出部32は、傾き調査線K2の基となった頭と尾の特徴部位H,Tが測定対象の魚における正しい組み合わせであると判断する。そして、算出部32は、特定部31により特定された測定対象の魚の特徴部位(頭と尾)の空間座標を利用して、対を成す特徴部位(頭と尾)間の間隔を測定対象の魚の長さLとして算出する。
 これに対し、算出部32は、複数の傾き調査線の角度と、頭と尾の参考角度との対比により、正しい頭と尾の特徴部位H,Tの組み合わせが検知されなかった場合には、前記同様に、魚の長さLを算出する演算を行わない。この場合には、前述したように、算出部32は、表示装置26に、計算できない旨のメッセージを表示制御部34の制御動作によって表示させてもよい。
 なお、図14に表されるような傾き調査線の傾き(算出結果)と頭の参考角度と尾の参考角度との比較結果を例えば図11A、図11Bのような算出方法を表す画像と共に、表示装置26に表示させる構成が情報処理装置20に備えられていてもよい。
 さらに、算出部32が、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知することが考えられる場合には、その場合を考慮した機能を備えていてもよい。例えば、算出部32は、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知した場合には、それら正しい組み合わせである頭と尾の対を成す特徴部位間の間隔Lをそれぞれ測定対象の魚の長さであるとして算出する。あるいは、算出部32は、正しい組み合わせであるとして頭と尾の対を成す特徴部位を複数検知した場合には、特定部31による特徴部位の座標を利用して最もカメラに近い対を成す特徴部位間の間隔を測定対象の魚の長さLとして算出してもよい。
 分析部33は、記憶装置23に格納されている魚の長さLの複数の情報と当該情報に関連付けられている情報を利用して、予め定められた分析を実行する機能を備えている。例えば、分析部33は、観測日における生簀48内の複数の魚の長さLの平均値あるいは検知対象とした魚の長さLの平均値を算出する。なお、検知対象とした魚の長さLの平均値を算出する場合の一例としては、1秒間というような短時間に撮影された動画の複数フレームにおける検知対象の魚の画像により算出された検知対象の魚の複数の長さLが利用される。また、生簀48内の複数の魚の長さLの平均値を算出する場合であって魚の個体識別をしていない場合には、平均値の算出に利用する魚の長さLの値として同じ魚の値が重複利用されることが懸念される。ただ、千尾以上というような多数の魚の長さLの平均値を算出する場合には、値を重複利用することに因る平均値の算出精度への悪影響は小さくなる。
 また、分析部33は、生簀48内における魚の長さLとその魚の数との関係 (魚の長さにおける魚体数分布)を算出してもよい。さらに、分析部33は、魚の成長を表す魚の長さLの時間的な推移を算出してもよい。
 次に、情報処理装置20における魚の長さLの算出(測定)動作の一例を図15を参照しつつ説明する。なお、図15は、情報処理装置20が実行する魚の長さLの算出(測定)に関わる処理手順を表すフローチャートである。
 例えば、情報処理装置20の検知部30は、操作画面における撮影画像41Bにおいての調査範囲(枠50,51)を指定する情報を受け付けると(ステップS101)、参照画面における撮影画像41A,41Bの調査範囲(枠50,51)の位置を算出する。そして、検知部30は、撮影画像41A,41Bの枠50,51内において、予め定められた特徴部位(頭と尾)を例えば参考データを利用して検知する(ステップS102)。
 その後、特定部31が、検知された頭と尾の特徴部位について、例えば、カメラ40A,40B(撮影位置)間についての間隔情報等を利用し、三角測量法によって座標空間における座標を特定する(ステップS103)。
 そして、算出部32が、検知部30により対として検知された頭と尾の特徴部位の組み合わせの正誤について、前述したような仮想基準線Sに対する傾き調査線(線分)の成す角度と、参考角度(参考角度許容範囲)とを利用して、確認する(ステップS104)。これにより、算出部32が、正しい頭と尾の特徴部位の組み合わせを検知する。対として成り得る頭と尾の特徴部位の複数の組み合わせが検知された場合にも、前述したように、算出部32が、仮想基準線Sに対する傾き調査線(線分)の成す角度と、参考角度(参考角度許容範囲)とを利用して、正しい頭と尾の特徴部位の組み合わせを検知する。
 そして、算出部32が、検知部30によって正しいと検知された対を成す特徴部位(頭と尾)間の間隔Lを特定部31により特定された座標を利用し魚の長さとして算出する(ステップS105)。その後、算出部32は、算出結果を予め定められた情報(例えば、撮影日時)に関連付けた状態で記憶装置23に格納する(ステップS106)。
 さらに、情報処理装置20の制御装置22は、例えば観測者による入力装置25の操作により魚の長さLの測定を終了する旨の指示が入力されたか否かを判断する(ステップS107)。そして、制御装置22は、終了の指示が入力されていない場合には、次の魚の長さLの測定に備えて待機する。また、制御装置22は、終了の指示が入力された場合には、魚の長さLを測定する動作を終了する。
 第1実施形態の情報処理装置20は、検知部30によって、カメラ40A,40Bの撮影画像41A,41Bにおいて、魚の長さLの測定に必要な魚の頭と尾の部位を検知する機能を備えている。さらに、情報処理装置20は、特定部31によって、検知された魚の頭と尾の位置を表す座標空間における座標を特定する機能を備えている。さらにまた、情報処理装置20は、算出部32によって、特定された座標に基づき魚の頭と尾の間隔Lを魚の長さとして算出する機能を備えている。このため、撮影画像41A,41Bにおける調査対象の範囲(枠50,51)の情報を観測者が入力装置25を利用して入力することにより、情報処理装置20は、魚の長さLを算出し、当該魚の長さLの情報を観測者に提供できる。換言すれば、観測者は、撮影画像41A,41Bにおける調査対象の範囲(枠50,51)の情報を情報処理装置20に入力することで、簡単に魚の長さLの情報を得ることができる。
 また、情報処理装置20は、三角測量法により、魚の対を成す特徴部位(頭と尾)の空間座標を特定(算出)し、当該空間座標を利用して、特徴部位間の長さLを魚の長さとして算出するので、長さの測定精度を高めることができる。
 さらに、情報処理装置20が特徴部位を検知する処理にて利用する参考データ(参考部位画像)の中心が、魚の長さを測定する部分の端部となっている場合には、測定する魚によって測定部分の端部位置がばらつくことを抑制できる。これにより、情報処理装置20は、魚の長さLの測定に対する信頼性をより高めることができる。
 さらに、情報処理装置20は、指定された調査範囲(枠50,51)内において特徴部位を検知する機能を備えている。このため、情報処理装置20は、撮影画像全体に亘って特徴部位を検知する場合に比べて、処理の負荷を軽減できる。
 さらに、情報処理装置20は、複数の撮影画像のうちの一つの画像において、調査範囲(枠50)が指定されることにより、他の撮影画像の調査範囲(枠51)を決定する機能を備えていてもよい。この場合には、情報処理装置20は、複数の撮影画像において観測者が調査範囲を指定する場合に比べて、観測者の手間を軽減できる。
 さらに、情報処理装置20は、算出部32により、頭と尾の特徴部位の組み合わせが正しいと検知された対を成す特徴部位間の間隔を魚の長さLとして算出する機能を備えている。このため、情報処理装置20は、誤った特徴部位の組み合わせに因る魚の長さLの誤算出を抑制することができる。
 また、情報処理装置20は、正しいと検知された頭と尾の特徴部位の対が複数有る場合に、カメラに最も近い対を成す頭と尾の特徴部位間の間隔を魚の長さLとして算出する機能を備えてもよい。この場合には、情報処理装置20は、撮影画像において明瞭な画像であると想定される魚の画像に基づいて魚の長さLを測定するので、魚の長さLの算出精度を高めることができる。
 <第2実施形態>
 以下に、本発明に係る第2実施形態を説明する。なお、第2実施形態の説明において、第1実施形態の情報処理装置および長さ測定システムを構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
 第2実施形態の情報処理装置20は、第1実施形態の構成に加えて、図16に表されるような設定部55を備えている。なお、情報処理装置20は、第1実施形態の構成を備えているが、図16では、特定部31と算出部32と分析部33と表示制御部34の図示が省略されている。また、図16において、記憶装置24と入力装置25と表示装置26の図示も省略されている。
 設定部55は、撮影画像41A,41Bにおいて検知部30が特徴部位(頭と尾)の位置を調べる調査範囲を設定する機能を備えている。その調査範囲は、第1実施形態では、観測者により入力される情報であるのに対し、第2実施形態では、設定部55が調査範囲を設定するので、観測者は調査範囲の情報を入力しなくて済む。このことにより、第2実施形態の情報処理装置20は、利便性をより高めることができる。
 第2実施形態では、記憶装置23には、設定部55が調査範囲を設定するために利用する情報として、調査範囲の形状および大きさを決定する情報が格納されている。例えば、調査範囲の形状および大きさが図17の実線に示されるような形状および大きさを持つ枠50,51である場合には、その形状を表す情報と、枠50,51の縦と横の長さの情報とが記憶装置23に格納される。なお、枠50,51は、同じ形状および同じ大きさを持つ。また、枠50,51は、例えば観測者が測定に適切であると考えた撮影画像における魚1尾の大きさに応じた大きさを持つ範囲であり、その縦と横のそれぞれの長さは、観測者等による入力装置25の操作により可変可能となっている。
 さらに、記憶装置23には、測定対象の物体全体(つまり、ここでは魚体)の撮影画像がサンプル画像として格納されている。ここでは、図18および図19に表されるように、撮影条件が互いに異なる複数のサンプル画像が格納されている。これら測定対象の物体全体(魚体)のサンプル画像も、特徴部位(頭と尾)のサンプル画像と同様に、多数の測定対象の物体を撮影した撮影画像を教師データ(教師画像)とした機械学習により得ることができる。
 設定部55は、次のようにして調査範囲を設定する。例えば、設定部55は、観測者により、長さの測定を要求する情報が入力装置25の操作により入力されると、記憶装置23から枠50,51に関する情報を読み出す。なお、長さの測定を要求する情報は、例えば、撮影画像41A,41Bの再生中に画像の一時停止を指示する情報であってもよいし、撮影画像41A,41Bの停止中に動画の再生を指示する情報であってよい。また、長さの測定を要求する情報は、表示装置26に表示されている『測定開始』のマークが観測者の入力装置25の操作により指示されたことを表す情報であってもよい。さらに、長さの測定を要求する情報は、測定開始を意味する予め定められた入力装置25の操作(例えばキーボード操作)が行われたことを表す情報であってもよい。
 設定部55は、枠50,51に関する情報を読み出した後に、撮影画像4A,4Bにおいて、読み出した情報に表されている形状および大きさの枠50,51を図17に表される枠A1→枠A2→枠A3→・・・→枠A9→・・・のように、枠50,51を所定の間隔で順次移動させる。なお、枠50,51の移動の間隔は、例えば、観測者により適宜可変可能な構成を備えていてもよい。
 また、設定部55は、枠50,51を移動させながら、当該枠50,51における撮影画像部分と、図18および図19のような測定対象の物体のサンプル画像とのマッチ度(類似度)を例えばテンプレートマッチング手法で利用される手法により判定する。そして、設定部55は、マッチ度が閾値(例えば、90%)以上となる枠50,51を撮影画像4A,4Bにおける調査範囲として設定する。例えば、図20に表される撮影画像の例では、設定部55により、1つの撮影画像において、2つの調査範囲(枠50,51)が設定されている。この場合には、2つの調査範囲のそれぞれについて、第1実施形態で述べたように、検知部30は、特徴部位を検知する処理を実行し、特定部31は、座標空間における特徴部位の空間座標を特定する。そして、算出部32は、2つの調査範囲のそれぞれについて、検知された頭と尾の特徴部位の対(組み合わせ)が正しいか否かを判断し、正しい対の特徴部位間の間隔(ここでは、魚の長さL)を算出する。なお、例えば、長さの測定を要求する情報として画像の一時停止を指示する情報が入力された場合、設定部55は、一時停止中の撮影画像において調査範囲を設定する。このように調査範囲が設定されることにより、前記の如く、対を成す特徴部位間の間隔が算出される。また、例えば、長さの測定を要求する情報として動画の再生を指示する情報が入力された場合、設定部55は、再生中の動画に対して、連続的に、調査範囲を設定する。このように調査範囲が設定されることにより、前記の如く、対を成す特徴部位間の間隔が算出される。
 なお、設定部55は、上記のように設定した調査範囲の位置を仮決定とし、仮決定の調査範囲(枠50,51)の位置を撮影画像4A,4Bに明記すると共に、調査範囲の確認を観測者に促すメッセージを表示制御部34によって表示装置26に表示させる機能を備えていてもよい。そして、設定部55は、観測者による入力装置25の操作によって調査範囲(枠50,51)の位置(例えば、枠50,51が同じ魚を囲んでいること等)を確認した旨の情報が入力された場合に、調査範囲の位置を確定してもよい。また、設定部55は、観測者による入力装置25の操作により調査範囲(枠50,51)の位置を変更したい旨の情報が入力された場合には、調査範囲(枠50,51)の位置を調整可能とし、観測者により変更された枠50,51の位置を調査範囲として確定してもよい。
 第2実施形態の情報処理装置20および長さ測定システムにおける上記以外の構成は、第1実施形態の情報処理装置20と同様である。
 第2実施形態の情報処理装置20および長さ測定システムは、第1実施形態と同様の構成を備えているので、第1実施形態と同様の効果を得ることができる。その上、第2実施形態の情報処理装置20および長さ測定システムは、設定部55を備えているので、観測者が調査範囲を確定する情報を入力しなくて済むこととなり、観測者の手間を軽減できる。これにより、第2実施形態の情報処理装置20および長さ測定システムは、物体の長さ測定に関する利便性をより高めることができる。例えば、情報処理装置20は、撮影画像41A,41Bの同期を取り、その後、撮影画像41A,41Bを再生しながら設定部55と検知部30と特定部31と算出部32により魚の長さLを算出していく処理を再生終了まで連続して行うことが可能となる。なお、情報処理装置20が上記のような画像の同期から撮影画像の再生および魚の長さの算出を連続して行う一連の処理を開始する手法には様々な手法が考えられる。例えば、入力装置25の操作により処理の開始が指示された場合に、情報処理装置20は、上記一連の処理を開始してもよい。また、撮影画像41A,41Bが情報処理装置20の記憶装置23に格納(登録)される際に、情報処理装置20は、その登録を検知することにより、上記一連の処理を開始してもよい。さらに、再生する撮影画像41A,41Bが選択された際に、情報処理装置20は、その選択情報に基づいて上記一連の処理を開始してもよい。ここでは、そのような様々な手法の中から、適宜な手法が採用されてよいものとする。
 また、設定部55により調査範囲が設定される場合には、調査範囲が手動により設定される場合に比べて、調査範囲に複数の魚の画像が含まれる確率が高くなる。このため、前述したような頭と尾の特徴部位の誤った対が検知される確率が上がるけれども、情報処理装置20は、第1実施形態で述べたように頭と尾の特徴部位の対の正誤を確認できるので、誤った対の特徴部位間の間隔を魚の長さLとして算出する事態を抑制できる。
 <その他の実施形態>
 なお、本発明は第1と第2の実施形態に限定されることなく、様々な実施の形態を採り得る。例えば、第1と第2の実施形態では、情報処理装置20に分析部33が備えられているが、魚の長さLの観測により得られた情報の分析は、情報処理装置20とは別の情報処理装置により実行されてもよく、この場合には、分析部33は省略されてもよい。
 また、第1と第2の実施形態では、対を成す特徴部位が魚の頭と尾である例を示したが、例えば、対を成す特徴部位として、さらに、背びれと腹びれの対をも検知する構成とし、頭と尾の間の長さだけでなく、背びれと腹びれとの間の長さをも算出してもよい。それら特徴部位としての背びれと腹びれを撮影画像から検知する手法は、頭と尾の検知と同様の検知手法を用いることができる。
 さらに、例えば、頭と尾の間の長さと、背びれと腹びれとの間の長さとを算出する場合であって、それら長さに基づいて魚の重さを推定できる長さと重さの関係が得られる場合には、分析部33が、それら算出された長さに基づき魚の重さを推定してもよい。
 上記のような対を成す特徴部位として検知される物体の部位の組み合わせは、頭と尾の組み合わせに限定されず、測定対象の物体において長さを測定する部分に応じて適宜設定される。
 さらに、第1実施形態の説明では、特徴部位の参考データとして図6の例が挙げられているが、特徴部位の参考データの種類は、図22~図25に表されているように、より多くてもよい。なお、図22および図23は、魚の頭に関する参考データの例であり、図24および図25は、魚の尾に関する参考データの例である。また、例えば、魚の尾の参考データとして、さらに、くねりが入っている魚の尾の画像が含まれていてもよい。また、魚の頭や尾の一部が撮影画像に映っていない見切りのデータが検知対象外の参考データとして与えられていてもよい。このように、参考データの種類や数は限定されない。
 さらに、第1と第2の各実施形態において、教師データを利用した機械学習によって特徴部位(頭と尾)や測定対象の物体全体(魚体)のサンプル画像を作成する場合に、次のようにして教師データの削減が図られてもよい。例えば、教師データとして図21に表されるような左向きの魚の撮影画像が取得された場合に、その左向きの魚の像を左右反転する処理を行って右向きの魚の教師データが得られるようにしてもよい。
 さらに、第1実施形態において、情報処理装置20が、特徴部位を検知する処理を開始する前などの適宜なタイミングで、撮影画像における水の濁りを軽減する画像処理や、カメラレンズや水の揺らぎに因る魚体の歪みを補正する画像処理を行ってもよい。また、情報処理装置20は、撮影画像を物体の水深や明るさ等の撮影条件を考慮して補正する画像処理を行ってもよい。さらに、第2実施形態において、情報処理装置20が、調査範囲を確定する処理を開始する前などの適宜なタイミングで、上記同様の画像処理を実行してもよい。このように、情報処理装置20が、撮影環境を考慮して撮影画像を画像処理(画像補正)することにより、測定対象の物体の長さ測定の精度をより高めることができる。また、情報処理装置20は、そのように画像補正された撮影画像を利用することにより、参考データの数を少なくできるという効果を得ることができる。
 さらに、第1と第2の実施形態では、測定対象の物体として魚を例にして説明しているが、第1と第2の実施形態で説明した構成を持つ情報処理装置20は、他の物体にも適用可能である。すなわち、第1と第2の実施形態における情報処理装置20は、魚でなくとも、長さを測定する部分の両端部分が他の部分と区別可能な特徴を持つ物体であれば、その物体の長さ測定に適用することもできる。
 さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の対の正誤を判断する際に、頭と尾の特徴部位を結ぶ仮想線分を傾き調査線として利用している。その仮想線分に代えて、算出部32は、検知部30により検知された頭と尾の特徴部位を通る仮想直線あるいは仮想半直線を傾き調査線として利用してもよい。
 また、第1と第2の実施形態では、検知部30により検知された頭と尾の特徴部位の対の正誤を算出部32が判断する際に利用する傾き角度検知用データは、6つのクラスに分けられている参考画像と参考角度との関係データである。これに代えて、傾き角度検知用データは、参考画像と参考角度とのリニアな関係データであってもよい。
 さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の対の正誤を判断する際に、仮想基準線として撮影画像における横線を利用している。これに代えて、算出部32は、撮影画像における縦線を仮想基準線として利用してもよい。また、算出部32は、四角形状の撮影画像における対角線を仮想基準線として利用してもよい。このように、仮想基準線は、撮影画像における横線に限定されない。
 さらに、第1と第2の実施形態では、算出部32は、検知部30により検知された頭と尾の特徴部位の画像からそれぞれ参考角度を検知し、傾き調査線の角度を、検知された2つの参考角度のそれぞれと対比している。そして、算出部32は、傾き調査線の角度が2つの参考角度の両方に合致している場合に、頭と尾の特徴部位の組み合わせは正しいと判断し、それら頭と尾の特徴部位間の間隔を測定対象の魚の長さLとして算出している。これに代えて、例えば、測定対象の物体(例えば魚以外)の形状によっては、検知部30により検知された対を成す特徴部位の一方の画像から検知される物体の傾きに応じた角度と、傾き調査線の角度との対比により、算出部32は、対を成す特徴部位の組み合わせが正しいか否かを判断してもよい。
 図26には、本発明に係るその他の実施形態の情報処理装置の構成が簡略化して表されている。図26における情報処理装置70は、機能部として、検知部71と、算出部72とを備えている。この情報処理装置70は、図27に表されるように、撮影装置76と共に、長さ測定システム75を構成する。撮影装置76は、測定対象の物体を撮影する構成を備えている。
 情報処理装置70の検知部71は、撮影装置76による撮影画像から、測定対象の物体における対を成す部位であって予め定められた特徴をそれぞれ持つ特徴部位を検知する機能を備えている。算出部72は、撮影装置76による撮影画像において、検知部71により対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度を算出する機能を備えている。さらに、算出部72は、算出した角度が、撮影画像における特徴部位の画像に基づいて算出される測定対象の物体の仮想基準線に対する傾きに応じた角度であるか否かを判断する機能を備えている。さらに、算出部72は、算出した角度が、測定対象の物体の傾きに応じた角度である場合に、その測定対象の物体の傾きに応じた傾きを持つ傾き調査線の基である対を成す特徴部位間の長さを算出する機能を備えている。
 情報処理装置70および長さ測定システム75は、上記のような構成を備えることにより、撮影画像に基づいて測定対象の物体の長さを容易に、かつ、精度良く検知できるという効果を得ることができる。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2017年9月4日に出願された日本出願特願2017-169792を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 20,70 情報処理装置
 30,71 検知部
 31 特定部
 32,72 算出部
 10,75 長さ測定システム
 40A,40B カメラ
 55 設定部
 76 撮影装置

Claims (9)

  1.  測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する検知手段と、
     前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する算出手段と
    を備える情報処理装置。
  2.  対と成り得る前記特徴部位の組み合わせが複数検知された場合には、前記算出手段は、前記特徴部位の組み合わせ毎に、前記傾き調査線と前記仮想基準線との成す角度を算出し当該算出した角度と前記参考角度との対比を行うことにより、前記算出した角度が前記参考角度となる前記傾き調査線を検知し、当該検知された前記傾き調査線の基となった対を成す前記特徴部位間の長さを算出する請求項1に記載の情報処理装置。
  3.  前記算出手段は、対を成す前記特徴部位を複数検知した場合には、前記撮影画像に基づいて算出される、前記撮影画像を撮影した撮影装置から被写体までの距離に関連する情報を利用して前記撮影装置に最も近い前記物体に係る前記特徴部位間の長さを採用する請求項2に記載の情報処理装置。
  4.  前記算出手段は、対を成す前記特徴部位のそれぞれの画像に基づいて、それぞれ推定される前記物体の傾きに応じた2つの参考角度を検知し、前記傾き調査線と前記仮想基準線との成す角度が前記検知された2つの参考角度の両方に合致している場合に、前記傾き調査線と前記仮想基準線との成す角度が前記測定対象の物体の傾きに応じた参考角度であると判断し、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する請求項1乃至請求項3の何れか一つに記載の情報処理装置。
  5.  前記検知手段は、前記特徴部位のサンプル画像が表されている参考部位画像に基づいて、前記撮影画像から前記特徴部位を検知する請求項1乃至請求項4の何れか一つに記載の情報処理装置。
  6.  前記検知手段は、前記特徴部位のサンプル画像であって、かつ、画像中心が前記物体の長さを測定する測定部分の端部を表している参考部位画像に基づき、前記物体における前記測定部分の端部を中心にした部位を前記特徴部位として検知し、
     前記算出手段は、前記対として検知された前記特徴部位の中心部間の間隔を算出する請求項5に記載の情報処理装置。
  7.  測定対象の物体を撮影する撮影装置と、
     前記撮影装置により撮影された撮影画像を利用する請求項1乃至請求項6の何れか一つに記載の情報処理装置と
    を備える長さ測定システム。
  8.  測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知し、
     前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する長さ測定方法。
  9.  測定対象の物体が撮影されている撮影画像から、前記物体における予め定められた特徴を持つ対を成す特徴部位を検知する処理と、
     前記撮影画像において、前記対として検知された特徴部位間を結ぶ仮想線分あるいは仮想直線あるいは仮想半直線である傾き調査線と、予め定められた仮想基準線との成す角度が、前記撮影画像における前記特徴部位の画像と角度参考データに基づいて検知される前記測定対象の物体の傾きに応じた参考角度である場合に、前記傾き調査線の基となった対を成す特徴部位間の長さを算出する処理と
    をコンピュータに実行させるコンピュータプログラムを記憶するプログラム記憶媒体。
PCT/JP2018/032534 2017-09-04 2018-09-03 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体 WO2019045089A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019539697A JP6879375B2 (ja) 2017-09-04 2018-09-03 情報処理装置、長さ測定システム、長さ測定方法およびコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-169792 2017-09-04
JP2017169792 2017-09-04

Publications (1)

Publication Number Publication Date
WO2019045089A1 true WO2019045089A1 (ja) 2019-03-07

Family

ID=65527415

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/032534 WO2019045089A1 (ja) 2017-09-04 2018-09-03 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体

Country Status (2)

Country Link
JP (1) JP6879375B2 (ja)
WO (1) WO2019045089A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112492197A (zh) * 2020-11-18 2021-03-12 京东数科海益信息科技有限公司 图像处理方法及相关设备
WO2021059631A1 (ja) 2019-09-24 2021-04-01 日本電気株式会社 個体体重推定システム、方法およびプログラム
JPWO2021065265A1 (ja) * 2019-09-30 2021-04-08

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4963035A (en) * 1988-02-29 1990-10-16 Grove Telecommunications Ltd. Fish sorting machine
JP2007304721A (ja) * 2006-05-09 2007-11-22 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2008224484A (ja) * 2007-03-14 2008-09-25 Casio Comput Co Ltd 撮像装置、及び寸法計測方法、寸法計測プログラム
JP2013217662A (ja) * 2012-04-04 2013-10-24 Sharp Corp 測長装置、測長方法、プログラム
JP2014055864A (ja) * 2012-09-13 2014-03-27 Keyence Corp 画像測定装置、その制御方法及び画像測定装置用のプログラム
WO2018061925A1 (ja) * 2016-09-30 2018-04-05 日本電気株式会社 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4963035A (en) * 1988-02-29 1990-10-16 Grove Telecommunications Ltd. Fish sorting machine
JP2007304721A (ja) * 2006-05-09 2007-11-22 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2008224484A (ja) * 2007-03-14 2008-09-25 Casio Comput Co Ltd 撮像装置、及び寸法計測方法、寸法計測プログラム
JP2013217662A (ja) * 2012-04-04 2013-10-24 Sharp Corp 測長装置、測長方法、プログラム
JP2014055864A (ja) * 2012-09-13 2014-03-27 Keyence Corp 画像測定装置、その制御方法及び画像測定装置用のプログラム
WO2018061925A1 (ja) * 2016-09-30 2018-04-05 日本電気株式会社 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021059631A1 (ja) 2019-09-24 2021-04-01 日本電気株式会社 個体体重推定システム、方法およびプログラム
JPWO2021065265A1 (ja) * 2019-09-30 2021-04-08
WO2021065265A1 (ja) * 2019-09-30 2021-04-08 日本電気株式会社 大きさ推定装置、大きさ推定方法および記憶媒体
JP7207561B2 (ja) 2019-09-30 2023-01-18 日本電気株式会社 大きさ推定装置、大きさ推定方法および大きさ推定プログラム
CN112492197A (zh) * 2020-11-18 2021-03-12 京东数科海益信息科技有限公司 图像处理方法及相关设备
CN112492197B (zh) * 2020-11-18 2022-01-07 京东科技信息技术有限公司 图像处理方法及相关设备

Also Published As

Publication number Publication date
JPWO2019045089A1 (ja) 2020-08-27
JP6879375B2 (ja) 2021-06-02

Similar Documents

Publication Publication Date Title
JP7188527B2 (ja) 魚体長さ測定システム、魚体長さ測定方法および魚体長さ測定プログラム
JP6981531B2 (ja) 物体同定装置、物体同定システム、物体同定方法およびコンピュータプログラム
US11328439B2 (en) Information processing device, object measurement system, object measurement method, and program storage medium
JP6446329B2 (ja) カメラのキャリブレーション装置、カメラシステム及び、カメラのキャリブレーション方法
JP5584832B2 (ja) 円柱状物体の直径測定装置及び測定方法、測定プログラム
JP6816773B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2009017480A (ja) カメラキャリブレーション装置およびそのプログラム
WO2019045089A1 (ja) 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
JPWO2014002725A1 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP2009210331A (ja) カメラキャリブレーション装置およびカメラキャリブレーション方法
JP2008139194A (ja) 端部位置測定方法および寸法測定方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JPWO2018061928A1 (ja) 情報処理装置、計数システム、計数方法およびコンピュータプログラム
CN108881883A (zh) 信息处理装置
JP2007033087A (ja) キャリブレーション装置及び方法
US20230260159A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
JP2008109481A (ja) 画像生成装置
JPWO2018061926A1 (ja) 計数システムおよび計数方法
JP2014002489A (ja) 位置推定装置、方法、及びプログラム
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置
KR102295987B1 (ko) 스테레오 카메라 모듈의 캘리브레이션 방법 및 장치, 및 컴퓨터 판독 가능한 저장매체
KR20120070129A (ko) 입체 영상 촬영 장치 및 그 방법
JP2014235063A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18850758

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019539697

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18850758

Country of ref document: EP

Kind code of ref document: A1