WO2013146269A1 - 画像撮像装置、画像処理方法およびプログラム - Google Patents

画像撮像装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2013146269A1
WO2013146269A1 PCT/JP2013/057013 JP2013057013W WO2013146269A1 WO 2013146269 A1 WO2013146269 A1 WO 2013146269A1 JP 2013057013 W JP2013057013 W JP 2013057013W WO 2013146269 A1 WO2013146269 A1 WO 2013146269A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
reference point
length
distance
image processing
Prior art date
Application number
PCT/JP2013/057013
Other languages
English (en)
French (fr)
Inventor
大輔 村山
岩内 謙一
徳井 圭
保孝 若林
真一 有田
奈保 澁久
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012077677A external-priority patent/JP5996233B2/ja
Priority claimed from JP2012085773A external-priority patent/JP6016226B2/ja
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/387,952 priority Critical patent/US10091489B2/en
Publication of WO2013146269A1 publication Critical patent/WO2013146269A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/04Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
    • G01B11/043Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving for measuring length
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Definitions

  • the present invention relates to an apparatus for measuring the length of a subject using image information captured by an imaging unit.
  • the present invention also relates to a technique related to an image capturing apparatus, and more particularly to a technique for calculating a length between two points in a captured image.
  • An image pickup device (stereo camera) having two image pickup devices capable of taking a three-dimensional image has been developed.
  • a left-eye image is captured by the left-eye image sensor
  • a right-eye image is captured by the right-eye image sensor.
  • a parallax corresponding to the distance from the image capturing apparatus to the subject is generated between the captured left and right images.
  • D is the parallax
  • B the base length
  • f the focal length
  • Z is the distance from the image pickup apparatus to the subject.
  • a method for calculating distance information from the parallax generated in the left and right images and calculating the length between two points in the captured image has been developed.
  • two points Ps and Pe of a measurement start position and a measurement end position are designated (T1, T2) in an image captured by an image pickup device, and the two points Ps and Pe are specified.
  • the length is calculated from the three-dimensional position between them.
  • These image pickup devices are also called length measuring devices when the main purpose is to measure the length.
  • Patent Document 1 it is necessary for the user to designate two points by operating the monitor with a touch panel or moving the cursor, so each time the measurement position is changed, It takes time to specify two points again. Furthermore, when the monitor that displays the captured image is small, the subject is displayed small, and it is difficult for the user to specify a fine point.
  • the measurement start position Ps and the measurement end position Pe are designated by touch input (T1, T2) to the touch panel screen or by operating the pointer on the screen with the cross button.
  • touch input T1, T2
  • the input to the touch panel cannot be specified accurately because the measurement position is hidden by the user's finger when specifying the measurement point, and the calculated length is also different from what the user intended. End up.
  • the operation using the cross button also requires detailed operation in order to realize an accurate designation intended by the user, and the number of times of input with the cross button increases and cannot be used easily.
  • the distance is not known until the two points of the measurement start position and the measurement end position are designated, and it is not known whether the desired length between the two points can be calculated.
  • the present invention has been made in order to solve the above-described problem, and realizes an easy-to-use distance measurement satisfying a user and capable of knowing the length of a subject in real time by a simple operation and calculating.
  • an image pickup device capable of improving the accuracy of the length to be measured.
  • An image pickup apparatus of the present invention includes at least two image pickup devices, an image processing unit that performs image processing on image information captured by the image pickup device, and an image display that displays image information processed by the image processing unit.
  • An imaging device comprising: The image processing unit displays two reference points on the image display unit so as to be in the same direction as the direction in which the two image pickup devices are arranged, and the first reference point and the second reference point A parallax value with respect to two reference points is calculated from the two image sensors, a length between the first reference point and the second reference point is calculated, and the first reference point and the second reference point are The result of calculating the length between is displayed on the image display unit.
  • the image pickup apparatus of the present invention corrects the coordinate position of the two reference points based on the position dependency of the distance information corresponding to the image information, and the length between the two corrected reference points. Is preferably calculated.
  • the image pickup apparatus of the present invention detects a feature point from the image information and adjusts the coordinate position so that at least one of the two reference points is set as the feature point.
  • the display format of at least one of the two reference points is changed according to the distance information.
  • the present invention also includes at least two image sensors, an image processing unit that performs image processing on image information captured by the image sensor, and an image display unit that displays image information processed by the image processing unit.
  • An image processing method using an image pickup apparatus comprising: In the image processing unit, displaying two reference points on the image display unit so as to be in the same direction as the direction in which the two image sensors are arranged; Calculating a parallax value between a first reference point and a second reference point, which are the two reference points, from the two image sensors; Calculating a length between the first reference point and the second reference point;
  • An image processing method comprising: displaying a result of calculating a length between the first reference point and the second reference point on the image display unit.
  • the present invention may be a program for executing the image processing method.
  • the image pickup apparatus of the present invention it is possible to know the length of the subject in real time by a simple operation with less burden on the user.
  • the image pickup apparatus of the present invention it is possible to improve the accuracy of the calculated length by shooting while displaying the reference point for measuring the length between two points, and easy shooting and measurement. Is possible.
  • (A) is a block diagram which shows one structural example of the length measuring apparatus in the 1st and 2nd embodiment of this invention
  • (B) is a functional block diagram which shows one structural example of the length calculation part. It is. It is a figure which shows the example of a use environment of the length measuring apparatus by this Embodiment. It is an external appearance block diagram which shows one structural example at the time of implement
  • FIG. 1A is a functional block diagram showing a hardware configuration example of the length measuring apparatus according to the present embodiment.
  • the length measuring device 1 according to the first embodiment includes output images of a first imaging unit 10 and a second imaging unit 11 that image a subject to be measured, and first and second imaging units 10 and 11.
  • An image processing unit 12 that performs image processing based on the image processing unit 12 and a display unit 13 that displays output information of the image processing unit 12 are provided.
  • the image processing unit 12 includes a distance calculation unit 14 that calculates distance information from the first and second imaging units 10 and 11 to the subject, a length calculation unit 15 that calculates the length of the captured subject, and a display. And a display control unit 16 for controlling information.
  • the length measuring device in the present embodiment includes, for example, a processor such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Access Memory), and the like, and executes a program stored in the storage device and executes the above program
  • a processor such as a CPU (Central Processing Unit)
  • main storage device such as a RAM (Random Access Access Memory), and the like
  • the processing of each processing unit can be realized.
  • a programmable integrated circuit such as an FPGA (Field Programmable Gate Array) or an integrated circuit dedicated to the above processing, the above processing can be realized by hardware.
  • FPGA Field Programmable Gate Array
  • the first imaging unit 10 and the second imaging unit 11 capture a subject and output an image.
  • the received light is converted into an electrical signal, which is used as a CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor).
  • an optical system such as a lens for condensing light from the subject on the image sensor.
  • the display unit 13 is a display that uses, for example, a liquid crystal element or an organic EL (Electro Luminescence) as a pixel.
  • a liquid crystal element or an organic EL (Electro Luminescence) as a pixel.
  • organic EL Electro Luminescence
  • FIG. 2 is an example of use when the length measuring device according to the present invention is realized by an information terminal such as a mobile phone or a smartphone.
  • the subject 20 is photographed from the front by the length measuring device 1, the length of the subject 20, Here, for example, the state of measuring the height of a person is shown.
  • FIG. 3 shows an outline of the external configuration of the length measuring apparatus 1 shown in FIG. 2 and 3, the same components as those in the block diagram of FIG. 1 are denoted by the same reference numerals.
  • FIG. 3A shows a rear view of the length measuring device 1, in which two image pickup units, the first image pickup unit 10 and the second image pickup unit 11, are mounted in a stereo arrangement.
  • the stereo arrangement refers to an arrangement in which the optical axes of the two imaging units are arranged in parallel.
  • the two imaging units 10 and 11 having the same configuration are used as an example. However, if the two imaging units can capture the same region and take correspondence between pixels, resolution and Imaging units having different configurations such as an angle of view may be used.
  • the two image pickup units are shown as being vertically arranged in the vertical direction, but may be arranged horizontally in the horizontal direction, and the illustrated image pickup apparatus can be used while being inclined in the horizontal direction.
  • FIG. 3 (B) shows a front view of the length measuring device 1, and the images of the imaging units 10 and 11 are displayed as a live view on the display unit 13 which is a liquid crystal display, for example.
  • the display unit 13 which is a liquid crystal display, for example.
  • an image of photographing the subject 20 is displayed.
  • the first imaging unit 10 is used as a reference and the video is displayed on the display unit 13.
  • the reference imaging unit may be either the first imaging unit 10 or the second imaging unit 11. Good.
  • the display unit 13 displays an image in which the imaging guide frame 30 and the imaging guide frame 31 are superimposed on the image of the first imaging unit 10.
  • the shooting guide frames 30 and 31 may be set in advance and stored in a storage device (not shown).
  • the photographing guide frames 30 and 31 are always displayed at the same image coordinate position on the screen of the display unit 13. That is, even when the subject or the length measuring device moves, the positions of the photographing guide frames 30 and 31 do not change.
  • the rectangular guide frames 30 and 31 are set to be arranged in the vertical direction as an example, but the shape and arrangement method of the photographing guide frame are not limited to this.
  • the oval frame may be arranged in the horizontal direction, or it may be set like the humanoid silhouette in FIG. 4 (B) or the upper and lower lines in FIG. 4 (C). Well, it may be set in any shape.
  • GUI Graphic User Interface
  • the user himself / herself is configured by a GUI (Graphical User Interface) using a figure such as a point, circle, rectangle, or line segment. Also good.
  • the length measuring device 1 detects two reference points such as the upper and lower ends of the subject from the feature points in the shooting guide frame (details of the reference point detection method will be described later), calculates the three-dimensional position of each reference point, and Length measurement is performed by calculating the length of the line segment connecting the points. Since the position of the shooting guide frame is fixed, the user moves the length measuring device 1 while confirming the video on the display unit 13, and aligns the subject to be measured with the shooting guide frame. At this time, if the video around the photographing guide frame is enlarged and displayed on a part of the display unit 13, it is possible to improve the operability at the time of alignment by the user. Further, the length between the reference points detected as described above is always calculated, and the display in the display area 33 is always updated.
  • the user can confirm the measurement position and the measurement result in real time. Both ends of the measurement position 32 are the above two reference points, and the user can always check the measurement position by displaying the reference points.
  • the explanation of the operation method to the user can be performed by displaying as shown in the display area 34. Further, not only the display by characters but also a guide such as voice may be used.
  • the measuring device 1 is equipped with a storage device such as a flash memory, or an external storage device such as a memory card, so that the captured video can be saved as a still image, or the measurement result data can be superimposed on a text or still image. It is also possible to save in the state. This process can be realized, for example, by determining that the user has pressed the hardware button 35 and writing the information at the time of pressing to the storage device. In addition, when the button is pressed, the video displayed in the live view on the display unit 13 is stopped, and the length measurement result that has been updated and displayed in the display area 33 is also fixedly displayed. The result can be confirmed.
  • the operation method is not limited to hardware buttons.
  • the display unit 13 may be a general touch panel such as a resistive film type or a capacitance type, so that a virtual button displayed on the screen is touched. Or by touching a subject displayed on the screen.
  • FIG. 5 is a flowchart showing the flow of the length measurement process of the length measuring device 1 in the present embodiment.
  • the subject is imaged by the first and second imaging units 10 and 11, and two images are acquired (step S10).
  • the distance calculation unit 14 calculates distance information from the two images acquired in step 10 (step S11).
  • the length calculation unit 15 detects the length measurement reference point of the subject from the image of the imaging unit 10 serving as a reference, and calculates the length of the subject by calculating the distance between the reference points (step S12).
  • the display control unit 16 outputs an image obtained by superimposing the shooting guide frame and the length measurement position on the image of the imaging unit 10 as a reference, and the length measurement result to the display unit 13 (step S13).
  • step S11 the distance calculation unit 14 calculates the distance from the two images acquired in step 10 by a stereo method.
  • the stereo method the same region is imaged by two imaging units arranged substantially in parallel, the parallax of corresponding pixels between the two obtained images is obtained, and the distance is calculated based on the parallax.
  • obtaining corresponding pixels between two images is called stereo matching. For example, the following processing is performed.
  • Pixel matching is performed by scanning a pixel in one image horizontally on the other image. Pixel matching is performed in units of blocks centered on the pixel of interest, and SAD (Sum of Absolute Difference) that calculates the sum of absolute value differences of the pixels in the block is calculated to determine a block that minimizes the SAD value. Thus, the pixel on the other image corresponding to the target pixel of one image is obtained.
  • SAD Sum of Absolute Difference
  • SSD Sud of Squared Difference
  • DP Dynamic Programming
  • the distance value is calculated by equation (1) based on the principle of triangulation.
  • Z is a distance value
  • f is a focal length of the imaging unit
  • b is a baseline length between two imaging units
  • d is a parallax value.
  • the distance calculation described above may be performed for the entire image or for the peripheral position of the shooting guide frame. Since this distance information is used in a length calculation process to be described later, it is only necessary to acquire distance information of a region necessary for length calculation.
  • FIG. 1B is a functional block diagram showing a configuration example of the length calculation unit 15.
  • the length calculation unit 15 includes a feature point detection unit 15-1, a reference point candidate detection unit 15-2, a length measurement mode determination unit 15-3, a length measurement unit 15-4, and an input / output unit 15-. 5.
  • step S12 the length calculation unit 15 calculates the length based on the length calculation processing flowchart shown in FIG.
  • the feature point detector 15-1 detects a feature point from the image acquired by the imaging unit 10 (step S20).
  • the detection range may be the entire image, or may be limited within the shooting guide frame or around the shooting guide.
  • the feature point detection can be performed by a general feature point detection method such as a Harris corner detection method.
  • the feature point detection method is not limited to this, and any method may be used as long as the feature point of the subject can be detected from the image.
  • the reference point candidate detection unit 15-2 detects a reference point candidate at a position to be measured from the detected feature point (step 21).
  • the reference point candidate since the user should have aligned the subject end point with the center position of the shooting guide frames 30, 31, the feature point closest to the center position of the shooting guide frame is set as the reference point candidate. To do.
  • the method for displaying the shooting guide on the display unit and detecting the reference point candidate from the feature points in the shooting guide frame has been described.
  • the point specified by the user directly with the finger using the display unit as a touch panel is used as the reference point candidate.
  • the reference point candidate may be designated by moving the cursor by key operation.
  • the length measurement mode determination unit 15-3 determines the length measurement target. That is, it is determined which of the object measurement mode for measuring the length and width of one object and the interval measurement mode for measuring the interval between two objects (step S22).
  • the object measuring mode is a case where the width (line segment 70) of one subject a is measured as shown in FIG.
  • the interval length measurement mode is a case where the interval (line segment 80) between the end points of the subject a and the subject b is measured as shown in FIG.
  • the reference point candidate detected by the above method may be erroneously positioned on the background side instead of on the subject. This is because when the reference point candidate is obtained by feature point detection, the subject and the background cannot be distinguished from the image information, and the feature point of the subject edge portion may be included on the background side. Further, when the user designates with a touch panel or a cursor, a user's designation mistake occurs.
  • the user may measure the line segment 71 although he / she wants to measure the line segment 70 shown in FIG.
  • the line segment 81 is measured although it is desired to measure the line segment 80 in FIG. 8B.
  • step S22 the above two length measurement modes are automatically determined, and the position of the reference point candidate detected in step 21 is corrected.
  • Measured mode is determined by referring to the gradient of the distance value and estimating the subject's arrangement. For example, as shown in FIG. 9, a reference range is defined on a line segment obtained by extending the position of the reference point candidate first found outward, and the distance on this line segment is “close, far, It turns out that it is changing as “close”. Therefore, it can be determined that there is no object inside the reference range 90 and the interval length measurement is being performed. On the other hand, when the distance of the reference range changes from the left side to “far, close, far”, it can be determined that the object is measured because the object exists inside the reference range. .
  • the coordinates of at least two reference points used as a reference when calculating the length can be corrected based on the position dependency of the distance information, and the length between the corrected at least two reference points can be calculated. wear.
  • the length measurement mode is determined by the above method, and the position of the reference point candidate is corrected according to the length measurement mode.
  • the reference point In any length measurement mode, the reference point needs to be on the object located in front rather than on the object located in the background or behind.
  • the reference point candidate distance is determined to be “far” compared to the surrounding distance, the reference point candidate is shifted toward the center of the screen, The position on the subject is set as a new reference point.
  • the reference point candidate distance is determined to be “far” compared to the surrounding distance, the reference point candidate is shifted in the outward direction of the screen and Is the new reference point.
  • the length measuring unit 15-4 calculates the length between the reference points in step S23. These processes are repeated, and finally, the input / output unit 15-5 outputs the length information to the display control unit 16.
  • the three-dimensional position (X, Y, Z) in the space of the reference point is It can be calculated by equation (2).
  • the length measuring apparatus automatically determines the object length measuring mode for measuring the length of one object and the distance length measuring mode for measuring the distance between two objects.
  • the length of the position desired by the user can be accurately measured.
  • the shooting guide is displayed and the subject position to be measured is aligned with the shooting guide, the length can be measured while reducing the burden on the user's operation.
  • the length measurement method for automatically determining the length measurement mode has been described.
  • the same effect as in the first embodiment can also be obtained by a method in which the user specifies the length measurement mode.
  • the length measuring device in the second embodiment has the configuration shown in FIG. 1A as in the first embodiment.
  • the process is the process shown in FIG. In FIG. 10, the same processes as those in FIGS. 5 and 6 are denoted by the same reference numerals.
  • the length measuring mode is selected (step S30).
  • the length measurement mode includes the object length measurement mode and the interval length measurement mode.
  • the length measurement mode selection method can be performed by button operation or touch panel operation.
  • steps S10 and S11 the same processing as that described in the first embodiment is performed.
  • step S31 the length calculation process in step S31 is performed.
  • reference point candidate detection step S21
  • length measurement mode determination step S22
  • step S32 The reference point detection in step S32 is processing in which the automatic determination part of the length measurement mode is removed from the processing in steps S21 and S22 described in the first embodiment.
  • the configuration in FIG. 1B is similarly changed. Therefore, in step S32, based on the information in step S30, the reference point candidate detection and the reference point candidate position correction are performed simultaneously.
  • the length of the desired position can be accurately measured as in the first embodiment after the length measurement mode is surely known. it can.
  • the distance calculation is performed by the stereo method from the two images of the two imaging units 10 and 11, but the configuration of the length measuring device 100 illustrated in FIG.
  • one of the imaging units in the configuration example of FIG. 11, the second imaging unit 11 illustrated in FIG. 1 is replaced with a distance measuring unit 101.
  • the image processing unit 102 in FIG. 11 is configured by removing the distance calculation unit 13 from the image processing unit 12 illustrated in FIG. 1, and the length calculation unit 14 includes distance information output from the distance measurement unit 101. Is entered directly. 1 and 11 are denoted by the same reference numerals.
  • the distance calculation process in step S11 is a distance acquisition process by the distance measuring unit 101, and is performed simultaneously with the image acquisition in step S10.
  • the distance measuring unit 101 may use a technique using infrared rays typified by the TOF (Time of Flight) method, or any technique that can acquire distance information.
  • TOF Time of Flight
  • the TOF method measures distance by irradiating invisible light such as infrared rays from a light source such as an LED (LightLiEmitting Diode) and measuring the time of flight when the light hits the subject and returns. It is. By measuring the measurement for each finely divided area, it is possible to measure not only one point but also various parts of the subject.
  • a method of measuring the time of flight pulsed laser light, measuring the time from when the pulse is emitted until the reflected light returns, or when the irradiated infrared light is modulated and irradiated
  • the length measuring device of the present invention it is calculated from image information captured by at least two imaging units, or distance information is acquired by a distance measuring unit and acquired. Based on the measured distance information, the subject's positional relationship is grasped, and based on the subject's positional relationship, the positions of at least two reference points to be used as a reference when calculating the length are corrected, and the length between the corrected reference points is calculated. By calculating, it is possible to accurately measure the length of the position desired by the user.
  • the length measurement mode is discriminated into the object length measurement mode and the interval length measurement mode.
  • it is indispensable to distinguish between these two modes. Absent. For example, when measuring the width of a window glass, it is difficult to acquire distance information of the window glass itself, distance information on the other side of the window glass is acquired, and the window glass part is determined as the background side, and the object It is determined that the measurement is not the measurement of the width of the object but the measurement of the distance between the two objects.
  • measuring the distance between the window frames from the window frame is equivalent to measuring the width of the window glass, and therefore it is not necessary to determine the length measurement mode as described above.
  • the user can measure the length with a simple and less burdensome operation. Further, if the shooting guide area is enlarged and displayed at that time, the subject can be easily aligned.
  • FIG. 12 is a functional block diagram illustrating a configuration example of the image capturing apparatus according to the embodiment of the present invention.
  • the image pickup apparatus A includes at least two image pickup elements, a first image pickup element A100 and a second image pickup element A101.
  • the images captured by the two image sensors A100 and A101 are transmitted to the image processing unit A102, and after necessary image processing is performed, the images are transmitted to the image display unit A103 to display the images on the display.
  • image data can be stored in the image storage unit A104.
  • only the image sensor is cited instead of the image capturing unit. However, the image capturing unit and the image sensor are treated as synonyms for acquiring image information.
  • the configuration of the apparatus including the image sensor includes an optical system that is not described in the description and the drawings, and the image sensor is used in the description to acquire image information like the image capturing unit.
  • the image display unit in the present embodiment is synonymous with the display unit in each of the above-described embodiments, and displays image information that has been subjected to image processing by the image processing unit.
  • the image pickup devices A100 and A101 are configured by optical components such as lenses and sensors that acquire image data by photoelectric conversion.
  • the sensors include, for example, CMOS (Complementary Metal Oxide Semiconductor) and CCD (Charge Coupled Device).
  • An image sensor can be used.
  • processing is performed by hardware processing such as FPGA (Field Programmable Gate Array) or software processing by a processor such as CPU (Central Processing Unit).
  • the image display unit A103 can be configured by a display device such as a liquid crystal display or an organic EL panel, for example.
  • the image storage unit A104 can be configured by a storage medium such as a flash memory or a hard disk, for example.
  • FIG. 13 is a functional block diagram showing a configuration example of the image processing unit A102 of the present invention.
  • the image processing unit A102 includes an output image generation unit A105 and a three-dimensional position calculation unit A106.
  • the reference image information is any one of image information captured by the first image sensor A100 or the second image sensor A101.
  • the reference image information is image information that is not the standard image information photographed by the first image sensor A100 or the second image sensor A101.
  • an image captured by the left image sensor when the image capturing apparatus A is held toward the subject will be described as reference image information.
  • the output image generation unit A105 receives reference image information, performs basic image processing such as color conversion, sharpness, noise reduction, and contrast correction, and length information calculated by the three-dimensional position calculation unit A106. Therefore, necessary information is added to the image information and output as output image information.
  • the three-dimensional position calculation unit A106 calculates the three-dimensional positions of the first reference point and the second reference point in the reference image information, and calculates the length between the two points based on the principle of triangulation.
  • the first reference point and the second reference point are two points set in the reference image information or the output image information, and are set apart by a predetermined coordinate.
  • the distance to the subject at the first reference point and the second reference point is calculated from the parallax that occurs between the reference image information and the reference image information.
  • the parallax D can be calculated by block matching that moves the reference search window Wr set in the reference image information with the pixel information including the periphery of each reference point as the reference search window Ws.
  • Block matching is performed, for example, by evaluating the degree of similarity or difference by using SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference).
  • B is a baseline length which is a distance between two image sensors
  • f is a focal length of the two image sensors.
  • the length information calculated by the three-dimensional position calculation unit A106 is transmitted to the output image generation unit A105, added to the reference image information, and output as output image information.
  • FIG. 16 is a diagram showing a state in which output image information is displayed on the image display unit A103.
  • the calculated length information (length calculation result) is displayed on the upper portion of the screen, superimposed on the image captured by the image sensor together with the measurement subject H.
  • the first reference point P1 and the second reference point P2 whose lengths are calculated by the three-dimensional position calculation unit A106 are also superimposed on the reference image information.
  • Measurement between two desired points is performed by matching the first reference point P1 and the second reference point P2 to the desired two points to be measured, as shown in FIG.
  • the first reference point P1 and the second reference point P2 for calculating the length are always displayed and can be adjusted to the subject to be measured without touching or pointing, so it is easy to specify two points. It can be performed with high accuracy.
  • the first reference point P1 and the second reference point P2 for calculating the length are set, the distance between the two points can always be calculated. Therefore, by aligning the first reference point P1 and the second reference point P2 with the subject to be measured while confirming whether the desired length between the two points can be measured, the alignment accuracy can be improved. Can prevent failure.
  • the first reference point P1 when the first reference point P1 is slightly shifted to the left side of the subject to be measured, the first reference point P1 becomes the background and the length with the second reference point P2 becomes very large.
  • This calculation result is displayed on the image display unit A103 as a length calculation result. That is, if the values are greatly different, it can be predicted that the position of the reference point is shifted, and the reference point can be adjusted again to the subject to be measured on the spot, thereby preventing measurement failure.
  • the desired point to be measured is often a characteristic point of the subject to be measured.
  • a feature point is a point where there is a change in image information such as the contour or pattern of a subject. Therefore, the first reference point P1 and the second reference point P2 are easily set as the feature points of the reference image information.
  • the feature point can be calculated from a differential value or a secondary differential value of the target pixel of the reference image information and its peripheral pixels.
  • the reference point P1 and the second reference point P2 it is preferable to enlarge and display the peripheral region of the first reference point P1 and the second reference point P2 so that the reference point is set with high accuracy.
  • This is particularly effective when the resolution of image information captured by the image sensor is large. Even when the resolution of the image information that can be captured by the image sensor is large, if the resolution of the image display unit is smaller, the reference point is also set at the resolution of the image display unit, and the reference point setting is thus performed. Becomes ambiguous. Therefore, if the enlarged display is performed so as to be close to the resolution being photographed and the reference point can be set finely, the length can be measured with high accuracy.
  • the image display unit A103 is horizontally long, and the first reference point P1 and the second reference point P2 are also arranged in the horizontal direction. However, the same applies to other arrangements and relationships. be able to.
  • FIG. 20 shows a case where the image display unit A103 is vertically long and the first reference point P1 and the second reference point P2 are in the vertical direction. Further, in FIG. 20, the first reference point P1 and the second reference point P2 are displayed with different sizes. This is because the size is varied according to the distance to the subject at each reference point.
  • the image display unit A103 is in the state as shown in FIG. 20, the relationship between the image pickup apparatus A and the subject to be measured is as shown in FIG.
  • the distance from the image capturing device A to the second reference point P2 is larger than the distance from the image capturing device A to the first reference point P1. This is the difference in the size of each reference point of the image display unit A103.
  • the parallax and the distance are inversely proportional, and when the parallax is calculated as a discrete value, the near view is calculated finely and the distant view is calculated roughly. This indicates that, when calculating the distance between two points, the error of the larger one of the first reference point P1 or the second reference point P2 and the distance to the subject H is larger. Therefore, in order to calculate the distance between the first reference point P1 and the second reference point P2 with the same degree of accuracy, it is preferable that the distance between each reference point and the image pickup device A is the same. . In the state of FIG. 20, the parallax of the first reference point P1 is calculated finely, but the parallax of the second reference point P2 includes many errors, and the calculated length error is at least that of the second reference point P2. It will contain errors.
  • the three-dimensional position calculation unit A106 transmits distance information or parallax information of each reference point to the output image generation unit A105 in addition to the length information, and generates output image information.
  • FIG. 22 shows a state after adjustment so that the sizes of the displayed reference points are the same.
  • the sizes of the displayed reference points are the same, both reference points are closer to the image pickup device A than the second reference point P2 in FIG. 20, and the parallax is calculated with the same resolution.
  • the calculated length error is at least the error of both reference points, and the length is calculated with higher accuracy than in the case of FIG.
  • the captured image when stored in the image storage unit A104, it may be stored when a signal for capturing is received, and the parallax values of the first reference point P1 and the second reference point P2 are substantially the same. You may save it when it becomes. If the parallax values of the first reference point P1 and the second reference point P2 are substantially the same after receiving a signal for photographing, the length intended by the photographer can be measured and stored. Therefore, it is preferable.
  • the distance between the image pickup apparatus A and each reference point is represented by the size when the first reference point P1 and the second reference point P2 are displayed, but the hue of the point representing the reference point Or saturation or brightness, and the same effect can be obtained by other methods.
  • the reference point far from the image capturing device A is blue, and the reference point near the image capturing device A is red, so that the achromatic color becomes closer to the same distance.
  • the method of displaying large when the distance to the subject H is short and small when the distance to the subject H is long uses the perspective method as a perspective expression, the user can easily understand the reference point. It is suitable for expressing the distance.
  • FIG. 24 is a diagram illustrating a relationship between the arrangement of the two image pickup devices A100 and A101 provided in the image pickup apparatus of the present embodiment and the first reference point P1 and the second reference point P2 displayed on the image display unit A103. is there.
  • a parallax occurs in the direction in which the image sensor is arranged between image information captured by two image sensors arranged in parallel. Therefore, when performing parallax calculation using a feature point in block matching or the like, a miscalculation can be reduced for a feature point having an outline different from the direction in which the imaging element is arranged.
  • the block search in the left-right direction causes the contour to occur in the left-right direction, so a reference search similar to the reference search window There may be multiple windows.
  • the contour in the same direction as the direction in which the image sensor is arranged is a feature, there is only one reference search window where the contour exists in the search in the left-right direction.
  • the feature points at the first reference point P1 and the second reference point P2 are often contours in the vertical direction. Therefore, when the parallax occurs in the left-right direction, and the block matching search is performed in the left-right direction, the accuracy of the feature point parallax calculation is improved. In order to realize this, it is necessary that the two image sensors are arranged in the left-right direction for the reasons described above. That is, as shown in FIG.
  • the state in which the direction in which the two image sensors are arranged and the direction in which the two reference points are arranged are the same as those in FIG. 25 in addition to FIG.
  • the same effect can be obtained with either of the image pickup apparatuses in both figures, and the length in either the vertical direction or the horizontal direction can be measured by rotating the image pickup apparatus.
  • 2 in the longitudinal direction of the image display unit as shown in FIG. It is preferable to arrange one image sensor and two reference points.
  • the result taken or measured by the image pickup device can be stored in the image storage unit A104.
  • the image information to be stored may be image information including the first reference point, the second reference point, and the length calculation result in a state as displayed on the image display unit A103.
  • the image information including the first reference point, the second reference point, and the length calculation result in the metadata may be used, or the image information including the first reference point, the second reference point, and the length calculation result, Both of the reference image information and the reference image information may be used, and it is preferable that the user can set appropriately.
  • the image pickup apparatus of the present invention makes it easy to set the reference point at a desired position by photographing while displaying the two reference points for measuring the length, and the desired length.
  • the accuracy of the calculation result can be improved.
  • since the reference point is set it is possible to always calculate the parallax and display the length measurement result of the shooting state, and confirm that the desired length can be measured. Can prevent failure.
  • by displaying the distance information of each reference point by calculating the parallax it is possible to grasp the relationship between the image capturing apparatus and the measurement target subject and to guide to a highly accurate shooting state. Further, if the image information is stored when the parallax values are substantially the same, the image information can be stored in a highly accurate shooting state.
  • each reference point is easily set to the feature point of the reference image information. Furthermore, in addition to the shooting state of the measurement subject, the enlarged reference image around the reference point or the entire measurement subject image can be displayed, so that the reference point can be set easily and accurately. .
  • the first reference point and the second reference point are at least the width of the image display unit in the direction in which both reference points are arranged. It is preferable to set half apart.
  • the present embodiment has been described as an image capturing apparatus that functions only for image capturing, a similar effect can be obtained with a mobile phone or a portable information terminal that includes two image sensors. Further, although the reference point has been described as a circle, the same effect can be obtained with other shapes such as a rectangle.
  • Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.
  • a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed.
  • the “computer system” here includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW (World Wide Web) system is used.
  • a WWW World Wide Web
  • the “computer-readable recording medium” means a storage device such as a flexible disk, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case is also used to hold a program for a certain period of time.
  • the program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system. At least a part of the functions may be realized by hardware such as an integrated circuit.
  • the present invention can be used for a length measuring device. Further, the present invention can be used for an image pickup apparatus.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

撮像素子で撮影された画像情報に画像処理をする画像処理部と、前記画像処理部で画像処理された画像情報を表示する画像表示部と、を備える画像撮像装置であって、前記画像処理部では、前記2つの撮像素子が配置される方向と同じ方向となるように、前記画像表示部に2つの基準点を表示し、前記2つの基準点である第一基準点と第二基準点との視差値を前記2つの撮像素子から算出し、前記第一基準点と前記第二基準点との間の長さを算出し、前記第一基準点と前記第二基準点との間の長さを算出した結果を、前記画像表示部に表示することを特徴とする。本画像撮像装置により、簡単な操作によって、被写体の長さをリアルタイムで知ることが可能な、ユーザが満足できる使い易い距離測定を実現するとともに、算出される長さの精度向上も可能になる。

Description

画像撮像装置、画像処理方法およびプログラム
 本発明は、撮像部により撮影した画像情報を用い、被写体の長さを測定する装置に関する。また、画像撮像装置に関する技術であり、特に、撮影した画像における2点間の長さを算出する技術に関する。本願は、2012年3月29日に、日本に出願された特願2012-077677号、および2012年4月4日に、日本に出願された特願2012-085773号に基づき優先権を主張し、その内容をここに援用する。
 立体画像を撮影することが可能な2つの撮像素子を備えた画像撮像装置(ステレオカメラ)が開発されている。立体画像を撮影するときには、左眼用の画像を左眼用の撮像素子で撮影し、右眼用の画像を右眼用の撮像素子で撮影する。撮影された左右画像の間には、画像撮像装置から被写体までの距離に応じた視差が発生している。視差と距離との関係は、D=B×f/Zで表わすことができる。ここで、Dは視差、Bは基線長、fは焦点距離、Zは画像撮像装置から被写体までの距離である。平行に配置された2つの撮像素子で撮影した場合、画像撮像装置から被写体までの距離が小さいと視差は大きくなり、距離が大きいと視差は小さくなり、無限遠では0となる。
 このような、左右画像に発生する視差から距離情報を算出して、撮影した画像の中の2点間の長さを算出する方法が開発されており、例えば、下記特許文献1のような方法がある。図26に示すように、特許文献1では、画像撮像装置で撮影された画像において、測定開始位置と測定終了位置の2点Ps、Peを指定し(T1,T2)、その2点Ps、Pe間の3次元位置から長さを算出する。
 また、特許文献2に記載の技術では内視鏡装置の先端に搭載した2つの光学系を用い、視差を持つ2枚の画像を取得し、ユーザはモニタ上でカーソルを移動して1点目を指定し、その後カーソルを画像上で移動させ、指定した1点目の位置と、現在のカーソル位置との間の長さが測定され、常に更新された値が表示され、被写体の位置や長さを測定している。
 これらの画像撮像装置は、長さを測定することを主用途とする場合には、測長装置とも呼ばれる。
特開2011-232330号公報 特開2009-258273号公報
 しかしながら、上記特許文献1に記載の方法では、ユーザがモニタ上をタッチパネルで操作するか、もしくはカーソルを移動させることで2点を指定する必要があるため、測定位置を変更する際にはその都度2点を指定し直す手間がかかる。さらに、撮影画像を表示するモニタが小さい場合には、被写体が小さく表示されるためユーザが細かい点まで指定するのは困難であった。
 また、特許文献1の方法では、測定開始位置Psと測定終了位置Peとの指定を、タッチパネル画面へのタッチ入力(T1,T2)、または、画面上のポインタを十字ボタンで操作して行う。しかし、タッチパネルへの入力は、測定点を指定するときに、測定位置がユーザの指に隠れてしまうため正確に指定することができず、算出される長さもユーザが意図したものとは異なってしまう。また、十字ボタンによる操作も、ユーザが意図する正確な指定を実現するためには細かい操作が必要となり、十字ボタンでの入力回数が増加して手軽に使用することができない。さらに、測定開始位置と測定終了位置との2点を指定するまで距離が分からず、所望の2点間の長さが算出できているかどうかも分からない。
 上記特許文献2の方法によれば、ユーザが2点目を指定する負担が軽減されるとともに、その瞬間の測定値を常に確認できるので、ユーザの測定作業が容易になる。しかしながら、少なくとも1点を指定する作業が発生するため、ユーザの負担軽減が十分とは言えないという問題がある。
 本発明は、上記課題を解決するためになされたものであって、簡単な操作によって、被写体の長さをリアルタイムで知ることが可能な、ユーザが満足できる使い易い距離測定を実現するとともに、算出される長さの精度向上も可能な画像撮像装置を提供する。
 本発明の画像撮像装置は、少なくとも2つの撮像素子と、前記撮像素子で撮影された画像情報に画像処理をする画像処理部と、前記画像処理部で画像処理された画像情報を表示する画像表示部と、を備える画像撮像装置であって、
 前記画像処理部では、前記2つの撮像素子が配置される方向と同じ方向となるように、前記画像表示部に2つの基準点を表示し、前記2つの基準点である第一基準点と第二基準点との視差値を前記2つの撮像素子から算出し、前記第一基準点と前記第二基準点との間の長さを算出し、前記第一基準点と前記第二基準点との間の長さを算出した結果を、前記画像表示部に表示することを特徴とする。
 また、本発明の画像撮像装置は、前記画像情報に対応する距離情報の位置依存性に基づいて、前記2つの基準点の座標位置を修正し、前記修正した2つの基準点の間の長さを算出すると好適である。
 また、本発明の画像撮像装置は、前記画像情報から特徴点を検出し、前記2つの基準点の少なくとも一方が、前記特徴点に設定されるように座標位置を調整すると好適である。
 また、本発明の画像撮像装置は、前記距離情報に応じて、前記2つの基準点の少なくとも一方の表示形式を変化させると好適である。
 また、本発明は、少なくとも2つの撮像素子と、前記撮像素子で撮影された画像情報に画像処理をする画像処理部と、前記画像処理部で画像処理された画像情報を表示する画像表示部と、を備える画像撮像装置を用いた画像処理方法であって、
 前記画像処理部では、前記2つの撮像素子が配置される方向と同じ方向となるように、前記画像表示部に2つの基準点を表示するステップと、
 前記2つの基準点である第一基準点と第二基準点との視差値を前記2つの撮像素子から算出するステップと、
 前記第一基準点と前記第二基準点との間の長さを算出するステップと、
 前記第一基準点と前記第二基準点との間の長さを算出した結果を、前記画像表示部に表示するステップとを有することを特徴とする画像処理方法である。
 また、本発明は、前記画像処理方法を実行するためのプログラムであっても良い。
 本発明に画像撮像装置によれば、ユーザの負担が少ない簡単な操作によって、被写体の長さをリアルタイムで知ることが可能になる。
 また、本発明の画像撮像装置によれば、2点間の長さを測定する基準点を表示しながら撮影することで、算出する長さの精度を向上することができ、容易な撮影と測定が可能となる。
(A)は、本発明の第1及び第2の実施の形態における測長装置の一構成例を示すブロック図であり、(B)は、長さ算出部の一構成例を示す機能ブロック図である。 本実施の形態による測長装置の使用環境例を示す図である。 本実施の形態による測長装置を情報端末で実現した場合の一構成例を示す外観構成図である。 撮影ガイドの設定例を示す図である。 測長処理の流れを示すフローチャート図である。 長さ算出処理の流れを示すフローチャート図である。 物体測長モードの測長環境例と、撮影画像と距離の関係を示す図である。 間隔測長モードの測長環境例と、撮影画像と距離の関係を示す図である。 測長モード判定時の参照範囲設定例を示す図である。 本発明の第2の実施の形態における測長処理の流れを示すフローチャート図である。 本発明の第3の実施の形態における測長装置の一構成例を示す機能ブロック図である。 本発明の実施の形態による画像撮像装置の一構成例を示す機能ブロック図である。 本実施の形態による画像撮影装置の画像処理部の一構成例を示す機能ブロック図である。 第一基準点と第二基準点とを示す図である。 ブロックマッチングによる探索処理を示す図である。 本実施の形態による画像撮像装置の画像表示部における表示例を示す図である。 本実施の形態による画像撮像装置の画像表示部における表示例を示す図である。 第一基準点と測定対象被写体との関係を示す図である。 本実施の形態による画像撮像装置の画像表示部における表示例を示す図である。 本実施の形態による画像撮像装置の画像表示部における表示例を示す図である。 画像撮像装置と測定対象被写体との関係を示す図である。 本実施の形態による画像撮像装置の画像表示部における表示例を示す図である。 画像撮像装置と測定対象被写体との関係を示す図である。 本実施の形態による画像撮像装置の撮像素子の配置と、基準点の配置との関係を示す図である。 本実施の形態による画像撮像装置の撮像素子の配置と、基準点の配置との関係を示す図である。 従来の技術を示す図である。
(第1の実施の形態)
 以下に、本発明の実施の形態について、図面を参照しながら詳細に説明する。
 図1(A)は、本実施の形態に係る測長装置のハードウェア構成例を示す機能ブロック図である。第1の実施の形態に係る測長装置1は、測長対象である被写体を撮像する第1撮像部10および第2撮像部11と、第1及び第2撮像部10、11の出力画像に基づいて画像処理を行う画像処理部12と、画像処理部12の出力情報を表示する表示部13と、を備えている。
 また、画像処理部12は、第1、第2撮像部10、11から被写体までの距離情報を算出する距離算出部14と、撮像した被写体の長さを算出する長さ算出部15と、表示情報を制御する表示制御部16と、を備えている。
 本実施の形態における測長装置は、例えば、CPU(Central Processing Unit)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置などを備え、記憶装置に格納されたプログラムを実行して上記した各処理部の処理を実現することができる。または、FPGA(Field Programmable Gate Array)などのプログラム可能な集積回路や、上記処理専用の集積回路を備えることで、ハードウェアにより上記処理を実現できる。
 第1撮像部10および第2撮像部11は、被写体を撮像し画像を出力するものであり、受光した光を電気信号に変え画像とするCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、被写体からの光を撮像素子に集光するためのレンズなどの光学系を備えている。
 また、表示部13は、例えば、液晶素子や有機EL(Electro Luminescence)などを画素とする表示ディスプレイである。
 次に、測長装置1の使用例について、図2と図3を用いて説明する。
 図2は、本発明に係る測長装置を、携帯電話機やスマートフォンなどの情報端末によって実現した場合の使用例であり、測長装置1によって被写体20を正面から撮影し、被写体20の長さ、ここでは例えば人物の身長を測定している様子を示している。また、図3は図2に示す測長装置1の外観構成の概要を示している。なお、図2、図3では、図1のブロック図と同じ構成のものは同じ符号を付している。
 図3(A)は、測長装置1の背面図を示しており、第1、第2撮像部10、11の2つの撮像部がステレオ配置で搭載されている。ステレオ配置とは、2つの撮像部の光軸が略平行となるように並べた配置を言う。本実施の形態では、例として2つの撮像部10、11には同一構成のものを用いるが、2つの撮像部で同領域を撮像し画素間の対応を取ることが可能であれば、解像度や画角など構成の異なる撮像部を用いても構わない。
 また、図3(A)では、2つの撮像部を垂直方向の縦並びで示しているが、水平方向の横並びとしても良く、図示した撮像装置を横向きに傾けて使用することも可能である。
 図3(B)は、測長装置1の正面図を示しており、例えば液晶ディスプレイである表示部13には、撮像部10・11の映像がライブビューとして表示される。図3(B)では、被写体20を撮影している映像が表示されている。本実施の形態では、第1撮像部10を基準として用い、その映像を表示部13に表示する構成としているが、基準とする撮像部は第1撮像部10、第2撮像部11のいずれでもよい。
 表示部13には、第1撮像部10の画像に撮影ガイド枠30と撮影ガイド枠31とを重畳した画像が表示される。撮影ガイド枠30・31は、事前に設定してここでは図示していない記憶装置に記憶しておくと良い。また、撮影ガイド枠30・31は、表示部13の画面上で常に同じ画像座標位置に表示される。つまり、被写体もしくは測長装置が移動した場合でも、撮影ガイド枠30・31の位置は変化しない。図3(B)では、例として矩形のガイド枠30・31を垂直方向に配置するように設定したが、撮影ガイド枠の形状や配置方法はこれに限られない。
 例えば、図4(A)のように、楕円形枠を水平方向に配置してもよいし、図4(B)の人型シルエットや図4(C)の上下ラインのように設定してもよく、どのような形状で設定してもよい。また、これらの設定は事前に設定するだけでなく、測長装置の起動時に、点や円形、矩形、線分などの図形を用いたGUI(Graphical User Interface)によって、ユーザ自身が設定する構成としてもよい。
 測長装置1は、撮影ガイド枠内の特徴点から被写体の上端・下端など2つの基準点を検出し(基準点検出方法詳細は後述する)、各基準点の3次元位置を算出し、基準点を結ぶ線分の長さを算出することで測長を行う。撮影ガイド枠の位置は固定であるので、ユーザは表示部13の映像を確認しながら測長装置1を移動させ、撮影ガイド枠に測長したい被写体を合わせる。このとき、表示部13の一部に撮影ガイド枠周辺領域の映像を拡大表示すれば、ユーザによる位置合わせ時の操作性向上が望める。また、以上で検出した基準点間の長さは常に算出され、表示領域33への表示も常に更新される。同時に、表示部13へ測長位置32を表示することで、ユーザはリアルタイムに測長位置と測長結果を確認することができる。測長位置32の両端が上記の2つの基準点であり、基準点を表示することで、ユーザは常に測定位置を確認することができる。ユーザへの操作方法説明は、表示領域34に示すように表示することで行うことができる。また、文字による表示だけでなく音声などのガイドによって行ってもよい。
 また、測長装置1にフラッシュメモリなどの記憶装置、もしくはメモリーカードなどの外部記憶装置を備えることで、撮影映像を静止画として保存したり、測長結果のデータをテキストや静止画に重畳表示した状態で保存したりすることも可能である。この処理は、例えば、ユーザがハードウェアボタン35を押下したことを判定し、押下した時点の情報を記憶装置に書き込む構成とすることで実現できる。また、ボタン押下時に、表示部13にライブビュー表示していた映像を静止させ、表示領域33に更新表示していた測長結果も固定表示とすることで、ユーザがその時点の測長位置・結果を確認することが可能となる。また、操作方法はハードウェアボタンに限られるものではなく、例えば表示部13部分を抵抗膜方式や静電容量方式などの一般的なタッチパネルとすることで、画面上に表示した仮想ボタンをタッチしたり、画面上に表示されている被写体をタッチしたりするなどの操作で実現することもできる。
 次に、測長方法の処理詳細について図を用いて説明する。
 図5は、本実施の形態における測長装置1の測長処理の流れを示すフローチャート図である。初めに、第1、第2撮像部10、11により被写体を撮像し2つの画像を取得する(ステップS10)。次に、距離算出部14は、ステップ10で取得した2つの画像から距離情報を算出する(ステップS11)。続いて長さ算出部15は、基準とする撮像部10の画像から被写体の測長基準点を検出し、基準点間の距離を算出することで被写体の長さを算出する(ステップS12)。最後に表示制御部16は、基準とする撮像部10の画像に撮影ガイド枠と測長位置を重畳した画像と、測長結果を表示部13に出力する(ステップS13)。
 ステップS11では、距離算出部14において、ステップ10で取得した2つの画像からステレオ方式により距離算出が行われる。ステレオ方式は、略平行に並べた二台の撮像部でほぼ同じ領域を撮像し、得られた2つの画像間で対応する画素の視差を求め、視差を基に距離を算出するものである。ステレオ方式において、2つの画像間で対応する画素を求めることをステレオマッチングという。例えば、次のような処理を行う。
 一方の画像のある画素について、他方の画像上を水平方向に走査することで画素マッチングを行う。画素マッチングは注目画素を中心としたブロック単位で行われ、ブロック内の画素の絶対値差分の総和をとるSAD(Sum of Absolute Difference)を計算し、SADの値が最小となるブロックを決定することで、一方の画像の注目画素に対応する他方の画像上の画素を求める。SADによる計算手法以外に、SSD(Sum of Squared Difference)やグラフカット、DP(Dynamic Programming)マッチングといった計算手法もある。対応画素が求まることでその画素の視差値がわかる。2つの撮像部が左右方向でなく、上下方向に配置されていた場合でも視差値は算出可能で、その場合は撮像画像の走査を水平方向に代えて垂直方向にすれば良い。
 求めた視差値から、三角測量の原理に基づき式(1)によって距離値が算出される。ここで、Zは距離値、fは撮像部の焦点距離、bは2つの撮像部間の基線長、dは視差値である。
Figure JPOXMLDOC01-appb-M000001
 以上で説明した距離算出は、画像全体について行ってもよいし、撮影ガイド枠の周辺位置について行ってもよい。この距離情報は、後述する長さ算出処理において用いられるため、長さ算出時に必要な領域の距離情報が取得できればよい。
 図1(B)は、長さ算出部15の一構成例を示す機能ブロック図である。長さ算出部15は、特徴点検出部15-1と、基準点候補検出部15-2と、測長モード判定部15-3と、長さ計測部15-4と、入出力部15-5と、を有している。
 ステップS12では、長さ算出部15において、図6に示す長さ算出処理フローチャートに基づいて長さ算出が行われる。
 まず、特徴点検出部15-1が、撮像部10で取得した画像内から特徴点を検出する(ステップS20)。検出範囲は画像全体としてもよいし、撮影ガイド枠内もしくは撮影ガイド周辺に限定してもよい。特徴点検出は、ハリスのコーナー検出手法など一般的な特徴点検出手法によって行うことができる。特徴点検出手法はこれに限られず、画像から被写体の特徴点を検出できればどのような手法を用いてもよい。
 次に、基準点候補検出部15-2が、検出した特徴点から測長を行う位置の基準点候補を検出する(ステップ21)。図3(B)の場合であれば、ユーザは撮影ガイド枠30、31の中央位置に被写体端点を合わせているはずであるので、撮影ガイド枠の中央位置に最も近い特徴点を基準点候補とする。
 以上では、撮影ガイドを表示部に表示し、撮影ガイド枠内の特徴点から基準点候補を検出する方法を述べたが、表示部をタッチパネルとしてユーザが直接指で指定した点を基準点候補としてもよいし、キー操作によってカーソルを動かして基準点候補を指定してもよい。
 次に、測長モード判定部15-3が、測長対象の判定を行う。つまり、1つの物体の長さや幅を測定する物体測長モードと、2つの物体の間隔を測定する間隔測長モードのいずれであるか判定する(ステップS22)。
 物体測長モードは、図7に示すように、1つの被写体aの幅(線分70)を測定するような場合である。間隔測長モードは、図8に示すように被写体aと被写体bの端点の間隔(線分80)を測定するような場合である。
 しかし、上記の方法で検出した基準点候補が、被写体上ではなく誤って背景側の位置となってしまうことがある。これは、特徴点検出により基準点候補を求めた場合、画像情報からは被写体と背景の区別はできず、被写体エッジ部分の特徴点が背景側に含まれることもあるためである。また、ユーザがタッチパネルやカーソルにより指定した場合は、ユーザの指定ミスが発生するためである。
 例えば、物体測長モードであれば、ユーザは図7(B)に示す線分70を測定したいにも関わらず、線分71を測定してしまうような場合である。また、間隔測長モードであれば、図8(B)の線分80を測定したいにも関わらず、線分81を測定しまうような場合である。
 これらの測定位置誤りを防ぐため、ステップS22では、上記2つの測長モードの自動判定を行うとともに、ステップ21で検出した基準点候補の位置修正を行う。
 測長モードの判定は、距離値の勾配を参照して被写体の配置関係を推定して行う。例えば、図9に示すように、最初に見つけた基準点候補の位置を外側に延長した線分上を参照範囲とし、この線分上の距離は、参照範囲90の左側から「近い、遠い、近い」というように変化していることがわかる。したがって、参照範囲90の内側には物体が存在せず間隔測長を行っていると判断できる。反対に、参照範囲の距離が左側から「遠い、近い、遠い」というように変化した場合には、参照範囲の内側に物体が存在するので、物体測長を行っていると判断することができる。このとき、「近い」と「遠い」は、連続する位置の距離値変化が一定値以上であった場合、つまり、被写体のエッジ部分などで急激に距離値が変化した場合を判断する。これによって、1つの被写体の表面に凹凸がある場合などの誤判定を防ぐ。このように、長さ算出時に基準とする少なくとも2つの基準点の座標を、前記距離情報の位置依存性に基づいて修正し、修正した少なくとも2つの基準点間の長さを算出することができきる。
 以上の方法で測長モードを判定し、測長モードに応じて基準点候補の位置を修正する。
 いずれの測長モードであった場合でも、基準点は背景や後方に位置する物体上ではなく、手前に位置する物体上である必要がある。
 そこで、物体測長モードであれば、基準点候補の距離が周辺の距離と比較して「遠い」と判断されていた場合、画面の中央方向に基準点候補をずらしていくことで、手前の被写体上の位置を新たな基準点とする。
 また、間隔測長モードであれば、基準点候補の距離が周辺の距離と比較して「遠い」と判断されていた場合、画面の外側方向に基準点候補をずらしていき、手前の被写体上の位置を新たな基準点とする。
 以上の方法で基準点が決定すると、長さ計測部15-4が、ステップS23において基準点間の長さを算出する。これらの処理を繰り返し、最終的には、入出力部15-5が、表示制御部16に、長さ情報を出力する。
 1つの基準点の画像上2次元位置(u,v)と、基準点の距離Zと、撮像部の焦点距離fとから、基準点の空間上の3次元位置(X,Y,Z)は式(2)によって算出することができる。
Figure JPOXMLDOC01-appb-M000002
 式(2)により算出した、2つの基準点の3次元位置をそれぞれP1(X1,Y1,Z1)、P2(X2,Y2,Z2)とすると、基準点間の長さLは式(3)によって算出される。
Figure JPOXMLDOC01-appb-M000003
 以上に説明したように、本実施の形態における測長装置は、1つの物体の長さを測定する物体測長モードと、2つの物体の間隔を測定する間隔測長モードと、を自動判別し、判別した測長モードに応じて基準点の位置修正を行うことで、ユーザの望む位置の長さを精度よく測定することができる。また、撮影ガイドを表示し、撮影ガイドに測長したい被写体位置を合わせるようにすれば、ユーザの操作の負担を軽減しながら長さ測定が可能となる。
(第2の実施の形態)
 上記第1の実施の形態では、測長モードを自動で判別する測長方法について説明した。しかし、以下に述べるように、測長モードをユーザが指定する方法によっても、実施の形態1と同様の効果を得ることができる。
 第2の実施の形態における測長装置は、第1の実施の形態と同様に図1(A)に示す構成を有する。処理は、図10で示される処理を行う。尚、図10において、図5、図6と同一の処理については同一の符号を付している。
 以下に、本実施の形態における測長装置の処理方法を、図10のフローチャート図を用いて説明する。
 まず、測長装置の使用開始時に、測長モードが選択される(ステップS30)。第1の実施の形態で述べたように、測長モードとは物体測長モードと間隔測長モードの2つである。測長モード選択方法は、ボタン操作やタッチパネル操作によって行うことができる。
 次に、ステップS10、ステップS11は、第1の実施の形態で説明した内容と同一の処理が行われる。
 次に、ステップS31の長さ算出処理が行われる。ステップS31内の処理は図6に示したフローチャート図における基準点候補検出(ステップS21)と測長モード判定(ステップS22)を、基準点検出(ステップS32)に変更したものである。ステップS32の基準点検出は、第1の実施の形態で説明したステップS21とステップS22の処理から測長モードの自動判別部分を除いた処理である。図1(B)の構成も同様に変更される。したがって、ステップS32では、ステップS30の情報に基づいて、基準点候補検出と、基準点候補の位置修正と、が同時に行われる。
 最後のステップS13は、第1の実施の形態で説明した内容と同一の処理が行われる。
 以上のように、測長モードを指定するようにしたことで、確実に測長モードがわかったうえで、第1の実施の形態と同様に所望の位置の長さを精度よく測定することができる。
(第3の実施の形態)
 上記第1の実施の形態もしくは第2の実施の形態では、2つの撮像部10・11の2つの画像からステレオ方式により距離算出を行ったが、図11に示す測長装置100の構成のように、いずれかの撮像部(図11の構成例では、図1に示した第2の撮像部11)を測距部101に置き換えている。この場合、図11の画像処理部102は、図1で示した画像処理部12から距離算出部13を取り除いた構成となり、長さ算出部14には、測距部101から出力される距離情報が直接入力される。図1と図11で同じ構成の部分は同じ符号を付している。
 図11の構成においても、図5のフローチャート図と同様の処理方法で、第1の実施の形態と同様の効果を得ることができる。ただし、ステップS11の距離算出処理は測距部101による距離取得処理であり、ステップS10の画像取得と同時に行われる。
 測距部101は、TOF(Time of Flight)方式に代表される赤外線を利用した手法を用いても良いし、距離情報を取得できるものであればどのような手法を用いても構わない。
 TOF方式は、LED(Light Emitting Diode)などの光源から赤外線など眼に見えない光を照射し、その光が被写体などに当たり反射して返ってくる飛行時間を計測することで距離を測距するものである。その計測を細かく分割された領域毎に計測することで、一点だけでなく被写体の様々な部分の測距が可能となる。なお、飛行時間の測定の方法としては、レーザ光をパルス照射し、パルスを発射してから反射光が戻ってくるまでの時間を計測する方法や、照射する赤外線を変調し、照射したときの位相と、反射光との位相差から算出する方法などがある。
 以上の3つの実施の形態で説明したように、本発明の測長装置によれば、少なくとも2つの撮像部により撮影した画像情報から算出するか、もしくは測距部により距離情報を取得し、取得した距離情報に基づいて被写体の位置関係を把握し、被写体の位置関係に基づいて、長さ算出時の基準とする少なくとも2つの基準点の位置を修正し、修正した基準点間の長さを算出することで、ユーザの望む位置の長さを精度よく測定することが可能となる。
 なお、上記の実施の形態では、説明を分かり易くするため、物体測長モードと間隔測長モードとに分けて測長モードの判別を行ったが、この2つのモードに判別することは必須ではない。例えば、窓ガラスの幅を測長する場合には、窓ガラス自体の距離情報の取得が難しく、窓ガラスの向こう側の距離情報を取得し、窓ガラス部分は背景側として判断されてしまい、物体の幅の測長ではなく、2つの物体の間隔の測長であると判別されてしまう。しかし、実際には窓枠から窓枠の間隔を測定すれば窓ガラスの幅を測定したことと同等であるため、上記のように測長モードの判別を行う必要はない。
 また、表示部に撮影ガイドを表示し、撮影ガイドに被写体位置を合わせるようにして測長を行うことで、ユーザは簡単で負担の少ない操作により測長が可能となる。また、そのときに撮影ガイド領域を拡大表示すれば、被写体の位置合わせが容易となる。
 また、以上の説明では、スマートフォンなどの情報端末に本発明の測長装置を実装した例を述べたが、これに限られるものではなく、ディジタルカメラなど撮像部を備えた装置を用いることで、同様の効果を得ることができる。
(第4の実施の形態)
 以下、図面を参照しながら、本発明の第4の実施の形態について詳細に説明する。なお、各図における表現は理解しやすいように誇張して記載しており、実際とは異なる場合がある。
 図12は、本発明の実施形態の画像撮像装置の一構成例を示す機能ブロック図である。本実施形態の画像撮像装置Aでは、少なくとも、第1の撮像素子A100と第2の撮像素子A101との2つの撮像素子を備えている。この2つの撮像素子A100、A101で撮影された画像は、画像処理部A102に伝達されて、必要な画像処理画が行われた後に、画像表示部A103に伝達されて、画像をディスプレイに表示したり、画像記憶部A104に画像データを保存したりすることができる。
なお、本実施の形態では、撮像部の代わりに撮像素子のみを引用して説明しているが、撮像部と撮像素子は画像情報を取得する同義のものとして扱う。つまり、撮像素子を含む装置の構成には、説明や図中には記していない光学系などを含んでおり、撮像部と同様に撮像素子は画像情報を取得するものとして説明で用いる。また、本実施の形態における画像表示部は、上記の各実施の形態における表示部と同義であり、画像処理部で画像処理された画像情報を表示するものである。
 撮像素子A100、A101は、レンズなどの光学部品と、光電変換により画像データを取得すセンサなどで構成され、センサには、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)といった固体撮像素子を利用することができる。画像処理部A102では、FPGA(Field Programmable Gate Array)などによるハードウェア処理や、CPU(Central Processing Unit)などのプロセッサによるソフトウェア処理などにより処理が行われる。画像表示部A103は、例えば、液晶ディスプレイや有機ELパネルなどの表示デバイスにより構成することができる。画像記憶部A104は、例えば、フラッシュメモリやハードディスクなどの記憶媒体により構成することができる。
 図13は、本発明の画像処理部A102の一構成例を示す機能ブロック図である。画像処理部A102は、出力画像生成部A105と、三次元位置算出部A106と、を有している。基準画像情報とは、第1の撮像素子A100または第2の撮像素子A101で撮影される画像情報のうちのいずれか一方である。参照画像情報とは、第1の撮像素子A100または第2の撮像素子A101で撮影される基準画像情報ではない方の画像情報である。本実施形態では、被写体に向かって画像撮像装置Aを構えたときに、左側の撮像素子で撮影された画像を基準画像情報として説明する。出力画像生成部A105には、基準画像情報が入力され、色変換、シャープネス、ノイズリダクション、コントラスト補正などの基本的な画像処理が行われるとともに、三次元位置算出部A106で算出される長さ情報などから、必要な情報を画像情報に追加して出力画像情報として出力する。
 三次元位置算出部A106では、基準画像情報における第一基準点および第二基準点の三次元位置を算出し2点間の長さを三角測量の原理に基づいて算出する。第一基準点および第二基準点は、図14に示すように、基準画像情報または出力画像情報において設定された2点であり、所定座標だけ離れて設定されている。2点間の距離を算出するときの処理を考慮すると、2つの基準点は水平または垂直な位置に配置されるのが良い。すなわち、第一基準点P1(x1、y1)および第二基準点P2(x2、y2)であるとき、図14のように水平位置に離間して配置されているのでy1=y2となる。
 第一基準点および第二基準点における被写体までの距離は、基準画像情報と参照画像情報との間に発生する視差により算出される。
 図15に示すように、視差Dは、各基準点の周辺を含む画素情報を基準探索窓Wsとし、参照画像情報に設定される参照探索窓Wrを移動するブロックマッチングにより算出することができる。ブロックマッチングは、例えば、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)などにより類似度または相違度を評価することで行われる。算出された視差Dから距離を算出することができ、距離ZはZ=B×f/Dにより算出される。ここで、Bは2つの撮像素子間の距離である基線長であり、fは2つの撮像素子の焦点距離である。距離が算出されたことにより、X方向およびY方向の基準座標からの相対的な距離も算出することができる。すなわち、第一基準点および第二基準点の座標位置から2点間の距離を算出することができる。
 三次元位置算出部A106で算出された長さ情報は、出力画像生成部A105に伝達され、基準画像情報に付加されて出力画像情報として出力される。
 図16は出力画像情報が画像表示部A103に表示されている状態を示す図である。算出された長さ情報(長さ算出結果)は、測定対象被写体Hとともに、撮像素子により撮影されている画像に重畳されて画面上部に表示されている。また、三次元位置算出部A106にて長さが算出される第一基準点P1および第二基準点P2も基準画像情報に重畳する。
 所望の2点間の測定は、図17に示すように、第一基準点P1と第二基準点P2を、測定したい所望の2点に合わせることにより行う。このとき、長さを算出する第一基準点P1および第二基準点P2が常に表示され、タッチやポイントなどをすることなく、測定対象被写体に合わせることができるため、2点の指定を容易に精度良く行うことができる。
 また、長さを算出する第一基準点P1および第二基準点P2が設定されているため、2点間の距離は常に算出することができる。したがって、所望の2点間の長さが測定できているかを確認しながら第一基準点P1と第二基準点P2を測定対象被写体に合わせることで、位置合わせの精度を高めることができ、測定の失敗を防ぐことができる。例えば、図17において、第一基準点P1が測定対象被写体の左側に僅かにずれていた場合、第一基準点P1は背景となり、第二基準点P2との長さは非常に大きくなる。この算出結果は長さ算出結果として画像表示部A103に表示されている。すなわち、大きく値が異なっていれば、基準点の位置がずれていると予想することができ、その場で再度基準点を測定対象被写体に合わせることができ、測定の失敗を防ぐことができる。
 さらに、測定したい所望の点は、測定対象被写体の特徴点であることが多い。特徴点とは、被写体の輪郭や模様といった画像情報に変化のある点である。そこで、基準画像情報の特徴点に第一基準点P1および第二基準点P2が設定されやすくしておく。図18に示すように、第一基準点P1が測定対象被写体Hに近接したときに、測定対象被写体Hの特徴点に設定されるようにする。特徴点は、基準画像情報の注目画素とその周辺画素の微分値や二次微分値などで算出することができる。第一基準点P1と第二基準点P2との間の距離を算出するときは、位置が微調整された後の座標を使用する。これにより、長さを測定したい点を設定しやすくなり、精度良く距離の測定を行うことができるようになる。
 また、図19に示すように第一基準点P1および第二基準点P2の周辺領域を拡大表示して、基準点の設定を高精度で行うようにすると好適である。撮像素子で撮影される画像情報の解像度が大きい場合には特に有効である。撮像素子で撮影できる画像情報の解像度が大きい場合であっても、画像表示部の解像度の方が小さいと、基準点の設定も画像表示部の解像度で行うことになってしまい、基準点の設定が曖昧になってしまう。そこで、撮影されている解像度に近付けるように拡大表示を行い、基準点の設定を細かく行えるようにすると、長さの測定が精度良く行えるようになる。
 一方、撮影対象被写体の一部分の長さを測定したい場合、画像表示部A103には撮影対象被写体の一部分しか表示されないことになる。このとき、撮影対象被写体のどの部分を撮影しているかを把握することが困難になる場合がある。そこで、図19で通常表示される領域には画像全体の切り出し画像を表示し、拡大表示領域となっている領域を、撮影対象被写体の全体が表示される縮小画像領域とすると、撮影対象被写体の全体が把握でき好適である。これらの表示方法はユーザが任意に設定できるようにしても良い。
 以上では、画像表示部A103が横長で、第一基準点P1と第二基準点P2も横方向に配置されている場合で説明をしたが、他の配置や関係であっても同様に実施することができる。
 図20には、画像表示部A103が縦長で、第一基準点P1と第二基準点P2が縦方向の場合を示す。さらに、図20では第一基準点P1と第二基準点P2の大きさを異ならせて表示している。これは、各基準点における被写体までの距離に応じて大きさを異ならせているためである。画像表示部A103が図20のような状態であるとき、画像撮像装置Aと測定対象被写体の関係は図21のようになっている。画像撮像装置Aから第一基準点P1までの距離に比べて、画像撮像装置Aから第二基準点P2までの距離は大きくなっている。これが画像表示部A103の各基準点の大きさの異なりとなっている。
 一般に、視差と距離は反比例の関係にあり、離散値として視差を算出すると近景は細かく、遠景は粗く算出される。これは2点間の距離を算出するときに、第一基準点P1または第二基準点P2のうち、被写体Hまでの距離が大きい方の誤差の影響が大きいことを示す。したがって、第一基準点P1および第二基準点P2の距離を同程度に精度良く算出するためには、各基準点と画像撮像装置Aとの距離が同程度の距離にあると良いことになる。図20の状態では、第一基準点P1の視差は細かく算出されるが、第二基準点P2の視差は誤差を多く含むこととなり、算出される長さの誤差は少なくとも第二基準点P2の誤差を含むことになる。
 そこで、図20のように各基準点における被写体Hまでの距離に関する情報を、画像表示部A103に表示することにより、画像撮像装置Aと各基準点の距離が同程度なるように誘導することができる。三次元位置算出部A106では、長さ情報に加えて各基準点の距離情報または視差情報を出力画像生成部A105に伝達し、出力画像情報を生成する。
 図22は、表示される各基準点の大きさが同じになるように調整した後の状態を示す。表示される各基準点の大きさが同じ程度となっており、両基準点とも図20の第二基準点P2よりも画像撮像装置Aに近付いており、同程度の分解能で視差が算出されていると予想され、算出される長さの誤差は少なくとも両基準点の誤差となり、図20のときよりも精度良く長さが算出される。画像表示部A103の表示状態が図22のような状態のとき、画像撮像装置Aと測定対象被写体との関係は図23のようになっている。画像撮像装置Aが測定対象被写体Hを正面から撮影する状態となり、良好な距離の測定が可能となっている。
 さらに、撮影した画像を画像記憶部A104に保存する場合、撮影するための信号を受信したときに保存しても良いし、第一基準点P1および第二基準点P2の視差値が略同一になったときに保存しても良い。撮影するための信号を受信した後、第一基準点P1および第二基準点P2の視差値が略同一になったときに保存すると、撮影者の意図する長さを測定し保存することができるため好適である。
 ここで、本実施形態では第一基準点P1および第二基準点P2を表示するときの大きさによって、画像撮像装置Aと各基準点との距離を表したが、基準点を表す点の色相や彩度や明度といったものでも良く、他の方法でも同様の効果を得ることができる。例えば、画像撮像装置Aから遠い側の基準点は青色、画像撮像装置Aから近い側の基準点は赤色として、同程度の距離になるにしたがって無彩色になるようにする。しかし、被写体Hまでの距離が近い場合には大きく、被写体Hまでの距離が遠い場合には小さく表示する方法は、遠近の表現として遠近法を用いているため、ユーザが理解し易く基準点の距離を表現するのに好適である。
 図24は、本実施形態の画像撮像装置が備える2つの撮像素子A100およびA101の配置と、画像表示部A103に表示される第一基準点P1および第二基準点P2との関係を示す図である。平行に配置される2つの撮像素子で撮影された画像情報の間には、撮像素子が配置される方向に視差が発生する。したがって、ブロックマッチングなどで特徴点を利用した視差算出を行う場合、撮像素子が配置される方向とは異なる輪郭を持つ特徴点の方が、誤算出を低下させることができる。
 例えば、撮像素子が配置される方向と同じ方向の輪郭が特徴点であった場合、左右方向へのブロックマッチングをすると、輪郭が左右方向に発生しているので、基準探索窓と類似した参照探索窓が複数存在してしまう可能性がある。一方、撮像素子が配置される方向と同じ方向の輪郭が特徴であった場合には、左右方向への探索で輪郭が存在する参照探索窓は一カ所しか存在しない。
 ここで、画像表示部A103の左右方向の長さを測定する場合、第一基準点P1および第二基準点P2における特徴点は、上下方向への輪郭であることが多い。したがって、視差が左右方向に発生し、左右方向へブロックマッチングの探索を行うと、特徴点の視差算出の精度が向上する。これを実現するためには、上述した理由により2つの撮像素子が左右方向に配置されていることが必要である。すなわち、図24に示すように、2つの撮像素子が配置される方向と、2つの基準点が配置される方向とを同じにすることで、長さを測定するときの各基準点における特徴点の視差算出精度が向上し、測定した長さの算出結果の精度を向上させることがきる。
 2つの撮像素子が配置される方向と、2つの基準点が配置される方向とを同じにする状態は、図24の他に図25の状態もある。両図のどちらの画像撮像装置であっても、同様の効果が得られ、画像撮像装置を回転させることにより、上下方向、左右方向どちらの長さも測定することができる。しかし、測定対象被写体の測定する所望の2点間を大きく撮影して、基準点を設定する方が精度良く長さを測定できるため、図24のように、画像表示部の長手方向に、2つの撮像素子を配置するとともに、2つの基準点を配置した方が好適である。さらに、同様の理由により、2つの基準点が配置される方向の画像表示部A103の幅の少なくとも半分の距離に、画像表示部A103に表示される2つの基準点を離間して設定した方が、測定される長さの精度の点で好適である。
 画像撮像装置により撮影または測定された結果は、画像記憶部A104に保存することができる。保存する画像情報は、画像表示部A103に表示されていたような状態で、第一基準点、第二基準点、長さ算出結果を含めた画像情報であっても良いし、基準画像情報のメタデータに第一基準点、第二基準点、長さ算出結果を入れた画像情報であっても良いし、第一基準点、第二基準点、長さ算出結果を含めた画像情報と、基準画像情報との両方であっても良く、ユーザが適宜設定できるようにしておくと好適である。
 以上に説明したように、本発明の画像撮像装置は、長さを測定する2つの基準点を表示しながら撮影することで、基準点を所望の位置に設定し易くなり、所望とする長さの算出結果の精度を向上することができる。また、基準点が設定されていることにより、常に視差の算出を行い、撮影状態の長さ測定結果を表示することが可能で、所望の長さを測定できているかを確認することで測定の失敗を防ぐことができる。また、視差の算出により各基準点の距離情報を表示することで、画像撮像装置と測定対象被写体との関係を把握し、精度の良い撮影状態に誘導することができる。また、視差値が略同一になったときに画像情報を保存すると、精度の良い撮影状態での画像情報保存が可能となる。
 さらに、基準画像情報の特徴点に、各基準点が設定され易くなるように自動で微調整することで、容易に所望の長さを測定することが可能となる。また、測定対象被写体の撮影状態に加えて、基準点周辺の拡大画像を表示したり、測定対象被写体全体の画像を表示したりすることで、基準点の設定を容易に精度良く行えるようになる。
 さらに、2つの撮像素子が配置される方向と、2つの基準点が配置される方向とを同じにすることで、視差の誤算出を低減することができ、測定される長さの誤算出も低減することが可能となる。また、測定対象被写体を大きく撮影した方が長さ算出精度を向上させることができるため、第一基準点と第二基準点は、両基準点が配置される方向の画像表示部の幅の少なくとも半分は離間させて設定した方が好適である。
 本実施の形態は、画像撮影のみを機能とした画像撮像装置として説明したが、2つの撮像素子を備えた携帯電話や携帯情報端末などでも同様の効果を得ることが可能である。また、基準点を円形で説明したが矩形などその他の形状でも同様の効果を得ることができる。
 上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
 また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
 また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。
 本発明は、測長装置に利用可能である。また、本発明は、画像撮像装置に利用可能である。
 1  測長装置
 10 第1撮像部
 11 第2撮像部
 12 画像処理部
 13 表示部
 14 距離算出部
 15 長さ算出部
 15-1 特徴点検出部
 15-2 基準点候補検出部
 15-3 測長モード判定部
 15-4 長さ計測部
 15-5 入出力部
 16 表示制御部
 20 被写体
 30 撮影ガイド枠
 31 撮影ガイド枠
 32 測長位置
 33 表示領域
 34 表示領域
 35 ボタン
 70 線分
 71 線分
 80 線分
 81 線分
 90 参照範囲
 100 測長装置
 101 測距部
 102 画像処理部
 A 画像撮像装置
 A100 撮像素子
 A101 撮像素子
 A102 画像処理部
 A103 画像表示部
 A104 画像記憶部
 A105 出力画像生成部
 A106 三次元位置算出部

Claims (6)

  1.  少なくとも2つの撮像素子と、前記撮像素子で撮影された画像情報に画像処理をする画像処理部と、前記画像処理部で画像処理された画像情報を表示する画像表示部と、を備える画像撮像装置であって、
     前記画像処理部では、前記2つの撮像素子が配置される方向と同じ方向となるように、前記画像表示部に2つの基準点を表示し、前記2つの基準点である第一基準点と第二基準点との視差値を前記2つの撮像素子から算出し、前記第一基準点と前記第二基準点との間の長さを算出し、前記第一基準点と前記第二基準点との間の長さを算出した結果を、前記画像表示部に表示することを特徴とする画像撮像装置。
  2.  前記画像処理部は、
     前記画像情報に対応する距離情報の位置依存性に基づいて、前記2つの基準点の座標位置を修正し、前記修正した2つの基準点の間の長さを算出することを特徴とする、請求項1に記載の画像撮像装置。
  3.  前記画像情報から特徴点を検出し、前記2つの基準点の少なくとも一方が、前記特徴点に設定されるように座標位置を調整することを特徴とする、請求項1または2に記載の画像撮像装置。
  4.  前記距離情報に応じて、前記2つの基準点の少なくとも一方の表示形式を変化させることを特徴とする、請求項1から3までのいずれか1項に記載の画像撮像装置。
  5.  少なくとも2つの撮像素子と、前記撮像素子で撮影された画像情報に画像処理をする画像処理部と、前記画像処理部で画像処理された画像情報を表示する画像表示部と、を備える画像撮像装置を用いた画像処理方法であって、
     前記画像処理部では、前記2つの撮像素子が配置される方向と同じ方向となるように、前記画像表示部に2つの基準点を表示するステップと、
     前記2つの基準点である第一基準点と第二基準点との視差値を前記2つの撮像素子から算出するステップと、
     前記第一基準点と前記第二基準点との間の長さを算出するステップと、
     前記第一基準点と前記第二基準点との間の長さを算出した結果を、前記画像表示部に表示するステップとを有することを特徴とする画像処理方法。
  6.  請求項5に記載の画像処理方法を実行するためのプログラム。
PCT/JP2013/057013 2012-03-29 2013-03-13 画像撮像装置、画像処理方法およびプログラム WO2013146269A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/387,952 US10091489B2 (en) 2012-03-29 2013-03-13 Image capturing device, image processing method, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012077677A JP5996233B2 (ja) 2012-03-29 2012-03-29 画像撮像装置
JP2012-077677 2012-03-29
JP2012-085773 2012-04-04
JP2012085773A JP6016226B2 (ja) 2012-04-04 2012-04-04 測長装置、測長方法、プログラム

Publications (1)

Publication Number Publication Date
WO2013146269A1 true WO2013146269A1 (ja) 2013-10-03

Family

ID=49259533

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/057013 WO2013146269A1 (ja) 2012-03-29 2013-03-13 画像撮像装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10091489B2 (ja)
WO (1) WO2013146269A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778681A (zh) * 2014-01-09 2015-07-15 美国博通公司 利用传感器数据确定来自图像的信息
EP2894604A1 (en) * 2014-01-09 2015-07-15 Broadcom Corporation Determining information from images using sensor data
EP2990760A1 (en) * 2014-08-29 2016-03-02 BlackBerry Limited A method to determine lenght and area measurements within a smartphone camera image
WO2016121099A1 (ja) * 2015-01-30 2016-08-04 株式会社sizebook 携帯情報装置、制御方法及び制御プログラム
JP6062599B1 (ja) * 2015-08-03 2017-01-18 株式会社sizebook 携帯情報装置、寸法測定方法、および寸法測定プログラム
JP2017035273A (ja) * 2015-08-09 2017-02-16 株式会社ジュエルエレガンス 携帯情報端末及び計測方法、プログラム
WO2017086027A1 (ja) * 2015-11-16 2017-05-26 ソニー株式会社 撮像装置、および、撮像システム
US20170264880A1 (en) * 2016-03-14 2017-09-14 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
JP2018519500A (ja) * 2015-05-15 2018-07-19 華為技術有限公司Huawei Technologies Co.,Ltd. 測定方法、および端末
WO2022004317A1 (ja) * 2020-07-01 2022-01-06 京セラ株式会社 測定装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9047688B2 (en) * 2011-10-21 2015-06-02 Here Global B.V. Depth cursor and depth measurement in images
US8553942B2 (en) 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9404764B2 (en) 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
US9762895B1 (en) * 2014-03-11 2017-09-12 Rockwell Collins, Inc. Dual simultaneous image presentation for a three-dimensional aviation display
US10063840B2 (en) * 2014-12-31 2018-08-28 Intel Corporation Method and system of sub pixel accuracy 3D measurement using multiple images
US9792687B2 (en) 2015-08-31 2017-10-17 Intel Corporation Point-to-point distance measurements in 3D camera images
EP3493533B1 (en) * 2016-08-01 2024-04-03 Sony Group Corporation Information processing device, information processing method, and program
US20190277624A1 (en) * 2016-09-30 2019-09-12 Nec Corporation Information processing device, length measurement method, and program storage medium
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215938A (ja) * 2007-03-01 2008-09-18 Railway Technical Res Inst 列車前方鉄道信号・標識認識装置
JP2009258273A (ja) * 2008-04-15 2009-11-05 Olympus Corp 計測用内視鏡装置およびプログラム
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201025A (ja) 1995-01-31 1996-08-09 Ntn Corp 非接触座標寸法測定機
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
JP5467683B2 (ja) 2010-01-28 2014-04-09 エフ・エーシステムエンジニアリング株式会社 立体映像表示装置の立体ノギス像形成装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008215938A (ja) * 2007-03-01 2008-09-18 Railway Technical Res Inst 列車前方鉄道信号・標識認識装置
JP2009258273A (ja) * 2008-04-15 2009-11-05 Olympus Corp 計測用内視鏡装置およびプログラム
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9704268B2 (en) 2014-01-09 2017-07-11 Avago Technologies General Ip (Singapore) Pte. Ltd. Determining information from images using sensor data
EP2894604A1 (en) * 2014-01-09 2015-07-15 Broadcom Corporation Determining information from images using sensor data
CN104778681A (zh) * 2014-01-09 2015-07-15 美国博通公司 利用传感器数据确定来自图像的信息
EP2990760A1 (en) * 2014-08-29 2016-03-02 BlackBerry Limited A method to determine lenght and area measurements within a smartphone camera image
US9869544B2 (en) 2014-08-29 2018-01-16 Blackberry Limited Method to determine length and area measurements within a smartphone camera image
WO2016121099A1 (ja) * 2015-01-30 2016-08-04 株式会社sizebook 携帯情報装置、制御方法及び制御プログラム
US10552971B2 (en) 2015-05-15 2020-02-04 Huawei Technologies Co., Ltd. Measurement method, and terminal
JP2018519500A (ja) * 2015-05-15 2018-07-19 華為技術有限公司Huawei Technologies Co.,Ltd. 測定方法、および端末
JP6062599B1 (ja) * 2015-08-03 2017-01-18 株式会社sizebook 携帯情報装置、寸法測定方法、および寸法測定プログラム
WO2017022045A1 (ja) * 2015-08-03 2017-02-09 株式会社sizebook 携帯情報装置、寸法測定方法、および寸法測定プログラム
JP2017035273A (ja) * 2015-08-09 2017-02-16 株式会社ジュエルエレガンス 携帯情報端末及び計測方法、プログラム
WO2017086027A1 (ja) * 2015-11-16 2017-05-26 ソニー株式会社 撮像装置、および、撮像システム
JPWO2017086027A1 (ja) * 2015-11-16 2018-08-30 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および、撮像システム
US11143504B2 (en) 2015-11-16 2021-10-12 Sony Semiconductor Solutions Corporation Image capture device and image capture system
US20170264880A1 (en) * 2016-03-14 2017-09-14 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
US10587858B2 (en) * 2016-03-14 2020-03-10 Symbol Technologies, Llc Device and method of dimensioning using digital images and depth data
WO2022004317A1 (ja) * 2020-07-01 2022-01-06 京セラ株式会社 測定装置

Also Published As

Publication number Publication date
US10091489B2 (en) 2018-10-02
US20150062305A1 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
WO2013146269A1 (ja) 画像撮像装置、画像処理方法およびプログラム
JP6016226B2 (ja) 測長装置、測長方法、プログラム
KR102143456B1 (ko) 심도 정보 취득 방법 및 장치, 그리고 이미지 수집 디바이스
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
CN110035218B (zh) 一种图像处理方法、图像处理装置及拍照设备
JP6502511B2 (ja) 計算装置、計算装置の制御方法および計算プログラム
US9100563B2 (en) Apparatus, method and computer-readable medium imaging through at least one aperture of each pixel of display panel
WO2016025328A1 (en) Systems and methods for depth enhanced and content aware video stabilization
JP2012256110A (ja) 情報処理装置、情報処理方法およびプログラム
JP2017535755A (ja) 動画カメラフォーカス用途における距離測定デバイス
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
WO2017199285A1 (ja) 画像処理装置及び画像処理方法
JP6804056B2 (ja) 投写型表示装置、投写型表示装置の制御方法、及びプログラム
JP2016217944A (ja) 計測装置、および計測方法
JP5996233B2 (ja) 画像撮像装置
WO2018076529A1 (zh) 场景深度计算方法、装置及终端
JP5987584B2 (ja) 画像処理装置、映像投影システムおよびプログラム
CN113159161A (zh) 目标匹配方法和装置、设备及存储介质
JP6789899B2 (ja) 計測装置および計測装置の作動方法
WO2018161322A1 (zh) 基于深度的图像处理方法、处理装置和电子装置
TW201833510A (zh) 物體尺寸計算系統
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JPWO2017134881A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13769806

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14387952

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13769806

Country of ref document: EP

Kind code of ref document: A1