WO2020175085A1 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
WO2020175085A1
WO2020175085A1 PCT/JP2020/004719 JP2020004719W WO2020175085A1 WO 2020175085 A1 WO2020175085 A1 WO 2020175085A1 JP 2020004719 W JP2020004719 W JP 2020004719W WO 2020175085 A1 WO2020175085 A1 WO 2020175085A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking information
image processing
moving body
image
camera
Prior art date
Application number
PCT/JP2020/004719
Other languages
French (fr)
Japanese (ja)
Inventor
俊之 村松
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2021501857A priority Critical patent/JP7375806B2/en
Publication of WO2020175085A1 publication Critical patent/WO2020175085A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present disclosure relates to an image processing device and an image processing method.
  • an image processing device that detects the position of an object existing in an imaging region based on an image captured by a camera or the like.
  • This type of image processing device accurately grasps the position of a person or a working machine (hereinafter collectively referred to as “moving body”) in a work environment such as a construction site or a factory and analyzes the action or motion of the moving body. It is also expected to be applied to applications for predicting the behavior or motion of the moving body (hereinafter collectively referred to as “behavior analysis”).
  • FIG. 1 is a diagram showing an example of a range image generated by a laser radar.
  • a laser radar emits a laser beam and measures the time (T0F: Time of Fli ght) until the laser beam is reflected by an object and returns to the object from its own position. Find the distance to the position of the object. Then, the laser radar 1 performs the processing while scanning within a predetermined range in which the monitoring target area is reflected, thereby generating image data related to the range image. Since such a range image includes information on the three-dimensional position of each part of the moving body, it is useful for recognizing the posture and motion of the moving body.
  • Patent Document 1 the surrounding environment is measured using a laser radar, and the moving object is recognized by clustering and analyzing the range-finding points that have been made into a point cloud, thereby recognizing the position of the moving object.
  • the technique to be tried is disclosed.
  • Patent Document 1 Japanese Patent Laid-Open No. 20 1 4 _ 1 6 7 7 02
  • Patent Document 1 limits the improvement of the accuracy of the object recognition because the object recognition is performed using only the measurement result of the laser radar.
  • the range image generated by the laser radar has lower horizontal and vertical resolution than the camera image generated by a general camera, and in addition, Does not include color information. Therefore, for example, if there are multiple people with similar physical characteristics in the area to be monitored by the laser radar, the distance images generated by the laser radar should be used to correctly track the multiple people. Is difficult.
  • the present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide an image processing device and an image processing method capable of improving the accuracy of moving object tracking using a laser radar. Means for solving the problem
  • a first image acquisition unit that acquires range image data from a laser radar that monitors a predetermined area
  • a second image acquisition unit that acquires image data of a camera image from a camera that monitors the predetermined area
  • a first analysis unit that generates first tracking information that tracks the position of a moving body existing in the predetermined region based on the distance images arranged in time series, ⁇ 2020/175085 3 (:171? 2020/004719
  • a second analysis unit that generates second tracking information that tracks the position of a moving object existing in the predetermined area based on the camera images arranged in time series, and the first tracking information and the second tracking information with time.
  • a data comparison processing unit that aligns and compares the axes, and determines the identification information and the position of the moving object existing in the predetermined area based on the first tracking information and the second tracking information,
  • An image processing apparatus including.
  • Image data of a range image is acquired from a laser radar that monitors a predetermined area.
  • Image data of a camera image is acquired from a camera that monitors the predetermined area, and based on the distance images arranged in time series, first tracking information that tracks the position of a moving body existing in the predetermined area is generated,
  • second tracking information is generated by tracking the position of the moving body existing in the predetermined area
  • the first tracking information and the second tracking information are compared with each other on the same time axis, and based on the first tracking information and the second tracking information, the identification information and the position of the moving object existing in the predetermined area are determined. Determine,
  • FIG. 1 A diagram showing an example of a range image generated by a laser radar.
  • FIG. 2 Diagram showing an example of the monitoring system according to the first embodiment.
  • FIG. 3 A diagram showing a hardware configuration of the image processing apparatus according to the first embodiment
  • FIG. 4 A diagram showing functional blocks of the image processing apparatus according to the first embodiment [FIG. The figure which shows an example of the tracking information generated ⁇ 2020/175085 4 ⁇ (:171? 2020 /004719
  • FIG.58 A diagram showing an example of tracking information generated by the second analysis unit.
  • FIG. 8 A flow chart showing processing executed when the image processing apparatus (data comparison processing unit) according to the first embodiment generates fixed tracking information.
  • FIG. 9 A diagram showing a configuration of an image processing apparatus according to a second embodiment.
  • FIG. 10 A diagram showing a configuration of an image processing apparatus according to a third embodiment.
  • FIG. 2 is a diagram showing an example of the monitoring system II according to the present embodiment.
  • the monitoring system according to the present embodiment is a moving object (here, a person IV! Work machine It is used for tracking applications.
  • a monitoring system II includes an image processing device 100, a laser radar 200, and a camera 300.
  • the laser radar 200 is, for example, a time until the laser light is emitted and the laser light is reflected by an object and returns. ⁇ ⁇ 4 4) is measured to obtain the distance from the position of the body to the position of the object.
  • the laser radar 200 performs such processing while scanning within a predetermined range in which the area to be monitored is imaged, thereby generating image data related to the distance image (hereinafter, abbreviated as “distance image”).
  • the laser radar 200 continuously generates distance images in frame units and outputs distance images arranged in time series (that is, moving images) to the image processing device 100. ⁇ 2020/175085 5 (:171? 2020/004719
  • the range image has a laser radar 20 for each pixel with each scanning position as a pixel.
  • the range image shows a three-dimensional (eg, horizontal, vertical, and depth) position of the object in the monitored area.
  • the position of the object is detected in a three-dimensional Cartesian coordinate system (X , ⁇ , ).
  • the camera 300 is, for example, a general visible camera, which converts an image signal generated by its own image pickup device (0 1 ⁇ /1 0 3 sensor or 0x00 sensor) into 80 , Image data (hereinafter referred to as “camera image”) is generated. Note that the camera 300 continuously generates camera images in frame units and outputs camera images arranged in time series (that is, moving images) to the image processing apparatus 100.
  • the camera image is, for example, for each pixel, Luminance value for each (for example, ⁇ It is an image in which the brightness values of 2 5 6 gradations for each of the Tami) are associated as pixel values.
  • the laser radar 200 and the camera 300 are installed at appropriate positions near the monitoring target area so that the same monitoring target area is imaged.
  • the image processing device 100 based on the image data of the range image generated by the laser radar 200 and the image data of the camera image generated by the camera 300, Existing in (in Fig. 2, Work machine Work machine It tracks the movement of the and outputs the tracking result.
  • FIG. 3 is a diagram showing a hardware configuration of the image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 has, as a main component,
  • an external storage device for example, flash memory
  • DSP Digital Signal Processor
  • FIG. 4 is a diagram showing functional blocks of the image processing apparatus 100 according to this embodiment.
  • the arrows in Fig. 4 represent the flow of data.
  • FIG. 5A is a diagram showing an example of tracking information D 1 (hereinafter, referred to as “first tracking information”) generated by the first analysis unit 30, and
  • FIG. 6 is a diagram showing an example of tracking information D 2 (hereinafter, referred to as “second tracking information”) generated by 40.
  • FIG. 6 is a diagram explaining the processing of the data comparison processing unit 50.
  • FIG. 6 shows an example of the first tracking information D 1 (left figure) generated by the first analysis section 30 and the second tracking information D 2 (right figure) generated by the second analysis section 40. There is.
  • the first tracking information D 1 (left figure) and the second tracking information D 2 (right figure) in FIG. 6 are generated in the same time zone.
  • the image processing device 100 includes a first image acquisition unit 10, a second image acquisition unit 20, a first analysis unit 30, a second analysis unit 40, a data comparison processing unit 50, and a data output unit 60. I have it.
  • the first image acquisition unit 10 acquires image data of a range image generated by the laser radar 200.
  • the first image acquisition unit 10 sequentially acquires distance images arranged in a time series from the laser radar 200.
  • the second image acquisition unit 20 is the image data of the camera image generated by the camera 300. ⁇ 2020/175085 7 ⁇ (:171? 2020/004719
  • the second image acquisition unit 20 sequentially acquires camera images arranged in time series from the camera 300.
  • the first analysis unit 30 tracks the position of the moving object existing in the monitoring target area based on the time-series distance images, and outputs the result as the first tracking information port 1.
  • the first analysis unit 30 detects a moving object appearing in each frame of the distance images arranged in time series, gives a mouth to each moving object, and exists the moving object. The position is stored in association with the mouth.
  • the first analysis unit 30 calculates, for example, the degree of association between the moving body detected in the frame of interest and the moving body detected in the previous frame, and based on the degree of association, the moving body detected in the frame of interest and the front Determine the identity with the moving object detected in the frame.
  • the first analysis unit 30 detects that the moving body detected in the target frame is If the same edge as the moving body detected in the frame is given and the moving body detected in the target frame and the moving body detected in the previous frame are not the same, the moving body detected in the target frame is Assign a new I 0. In this way, the first analysis unit 30 individually tracks the moving objects reflected in each frame.
  • the first analysis unit 30 is provided for each physical body such as a person or a working machine.
  • the method of detecting the moving body from the range image by the first analysis unit 30 may be any known method.
  • the first analysis unit 30 may detect the moving object, for example, by taking the difference between the frame of interest and the previous frame.
  • the first analysis unit 30 detects a moving object (for example, a person or a vehicle) by pattern matching based on, for example, the feature amount (for example, shape and size) of the cluster of distance measuring points in the distance image. You may.
  • the first analysis unit 30 is a method for determining the identity of each moving object between different frames. May be any known method.
  • the first analysis unit 30 may determine, for example, the distance between the moving object detected in the frame of interest and the moving object detected in the previous frame, the size similarity between the two, and the shape similarity between the two. The degree of relevance between the two is calculated based on the gender, the color similarity between the two, and the moving speed similarity between the two. Then, the first analysis unit 30 determines that the moving object detected in the frame of interest and the moving object detected in the previous frame are the same _ when the relationship is equal to or more than the predetermined value.
  • the first analysis unit 30 uses a discriminator model that has been learned by machine learning to detect a moving object in the range image, or the first analysis unit 30 is different. Determine the identity of each moving object between frames. This makes it possible to enhance the robustness of moving body detection and the robustness of moving body identity determination against changes in the appearance of moving bodies.
  • the first analysis unit 30 detects a moving body from the range image, it is preferable to use a convolutional neural network (Convolutional Neural Network: C NN).
  • CNN convolutional Neural Network
  • the first analysis unit 30 determines the identity of each moving object between different frames, it is preferable to use a hidden Markov model (Hidden Markov Mode l: HM M ), for example.
  • machine learning may be executed by reinforcement learning using a learning data set in which the input image and the correct answer value are associated with each other.
  • the first tracking information D1 is, for example, data indicating the position (here, three-dimensional coordinate position) of the moving body in each frame of the distance images arranged in time series (see Fig. 5A. See).
  • the first tracking information D 1 includes, for example, for each moving body, an ID and information regarding a temporal change in the position of the moving body. In other words, the first tracking information D 1 identifies the moving body of the same _ in each frame by giving only one _ D.
  • the first tracking information D 1 is recorded by assigning an individual ID to each of the multiple moving objects and associating the temporal change of the position of the moving object. To do.
  • the second analysis unit 40 tracks the position of the moving object existing in the monitoring target area based on the time-sequential camera images, and outputs the result as the second tracking information. ⁇ 2020/175085 9 ⁇ (:171? 2020 /004719
  • the second analysis section 40 detects a moving body from a camera image and the method of identifying each moving body among different frames is a known arbitrary method. Can be used. It is desirable that the second analysis unit 40 uses the trained discriminator model when performing these processes, similarly to the first analysis unit 30.
  • the second tracking information 02 is, for example, data indicating the position (here, two-dimensional coordinate position) of the moving object in each frame of the camera images arranged in time series (see Fig. 5). ..
  • the mouth and the temporal change of the position of the moving body are recorded in association with each other for each moving body.
  • the data comparison processing unit 50 compares the first tracking information port 1 and the second tracking information port 2 while aligning the time axes, and determines the first tracking information port 1 and the second tracking information port 0 2. Based on this, the position and I 0 of the moving object existing in the monitored area are confirmed, and the result is output as the confirmed tracking information port 3.
  • a range image has low resolution and does not include color information. Therefore, it may be difficult to identify a moving object between different frames from the range image.
  • the moving object if the moving object intersects another moving object or changes its posture, whether the moving object is the same as the one detected at the previous time point. Can't identify ⁇ 2020/175085 10 boxes (:171? 2020 /004719
  • the camera image has high resolution and includes color information, it is possible to more accurately identify a moving object between different frames.
  • the data comparison processing unit 50 uses the second tracking information 02 to determine the first
  • the data comparison processing unit 50 if the change in the index 0 of the moving object included in the first tracking information port 1 is different from the change in the I 0 of the moving object included in the second tracking information port 2, Considering that there is an error in the change of the mouth I of the moving object included in tracking information port 1, I 0 of the moving object included in first tracking information port 1 is changed to I 0 of the moving object included in second tracking information port 2. After correction, the corrected first tracking information 0 1 is output as the fixed tracking information port 3.
  • the first tracking A method of calculating the degree of proximity between the position of the moving body included in the information port 1 and the position of the moving body included in the second tracking information 02 (for example, the distance between the two or the overlapping area of the two) is used.
  • the data comparison processing unit 50 can execute the process, a data set indicating the correspondence between the coordinate position indicated by the first tracking information port 1 and the coordinate position indicated by the second tracking information port 2 is displayed. It is desirable that the image is stored in advance in the image processing device 100 such as [1/1 ⁇ /110 2].
  • the data comparison processing unit 50 refers to the visual field information of the laser radar 200 and the visual field information of the camera 300 to consider the difference between the visual fields of the two, and then performs the first tracking. It is desirable to identify the correspondence between the moving object included in information port 1 and the moving object included in the second tracking information port 2.
  • Fig. 7 is a diagram showing the field of view of the laser radar 200 and the field of view of the camera 300.
  • the field of view 1 of the laser radar 200 is generally narrower in the vertical imaging range than the field of view 2 of the camera 300. Therefore, the moving object shown in the range image is different from the moving object shown in the camera image, and the whole moving object is shown in the range image. ⁇ 2020/175085 1 1 ⁇ (:171? 2020/004719
  • a camera image may show the whole body of a person, while a range image may show only the upper half of the person. Therefore, the data comparison processing unit 50, for example, considers the difference in shape between the moving object in the range image and the moving object in the camera image, and considers the moving object included in the first tracking information port 1 and the second object. It is desirable to identify the correspondence with the moving object included in tracking information port 2.
  • Comparison unit 5 becomes large is the same _ object conditions vertically to more if the object being Mikire completely vertically angle in the laser radar 2 0 0, the laser radar 2 0 0 If an object is completely contained within the vertical angle of view of, it can be judged that an object larger than that is likely to be another object even if it is approximate in terms of distance. This can improve the accuracy of object discrimination.
  • the data comparison processing unit 50 more preferably refers to the first tracking information port 1 and refers to any one of the following first to third situations. It is desirable to judge whether or not it has occurred and refer to the second tracking information port 2 only when any of the first to third situations has occurred. In other words, the data comparison processing unit 50 determines the first tracking information port 1 as it is without referring to the second tracking information port 2 when neither of the first situation to the third situation occurs. It is desirable to output as tracking information 0 3.
  • the data comparison processing unit 50 decides whether or not to carry out the correctness determination of the first tracking information port 1 depending on the situation as described above. As a result, unnecessary data processing can be omitted and the processing load can be reduced.
  • the data output unit 60 outputs the definite tracking information 03 generated by the data comparison processing unit 50 to the outside.
  • the data output unit 60 converts, for example, the confirmed tracking information port 3 into display image format data and displays it on the display.
  • FIG. 8 is a flow chart showing processing executed when the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment generates fixed tracking information.
  • the flow chart shown in FIG. 8 is executed by the image processing apparatus 100 according to a computer program, for example.
  • Steps 31 to 35 are preprocessing steps for performing a process of comparing the first tracking information port 1 and the second tracking information port 2.
  • the image processing device 100 first analysis unit 30
  • the image processing device 100 second analysis unit 40
  • Second tracking information 0 2 is generated based on the image (step 3 2 ).
  • the image processing apparatus 100 causes the storage unit for data comparison (for example, the comparison queue) to store the first frame of one frame according to the conditions set in steps 33 to 35. Register tracking information port 1 and second tracking information 0 2 (step 36).
  • the image processing apparatus 100 determines whether or not the storage section includes two or more frames of data (first tracking information port 1 and second tracking information 0 2) (step 3 7), if data of 2 frames or more is included ⁇ 1 : ⁇ 3), proceed to the determination process of the following step 38, while
  • step 3 1 When the data of 2 frames or more is not included (37: N 0), the process proceeds to the following step 3 1 2.
  • the image processing apparatus 100 uses the first tracking information port stored in the storage unit.
  • step 38 It is determined whether 1 includes the disappearance and generation of the mouth in the same timing (step 38), and if the disappearance and generation of the mouth I is included (3 8: ⁇ 3 3), continue. Then proceed to step 39. On the other hand, if the extinction and the creation of the mouth are not included (3 8 :N 0), the process proceeds to the following step 3 1 2.
  • the image processing apparatus 100 determines whether or not the moving body of the disappearance I0 extracted in step 38 and the moving body of the newly generated entrance satisfy predetermined conditions regarding position and size. However, if the predetermined condition is satisfied (39: No. 3), the process proceeds to the following step 310, and if the predetermined condition is not satisfied (39: N 0), the next step. Proceed to 3 1 2. Specifically, the image processing apparatus 100 uses the position of the center of gravity of the moving body of the vanishing I mouth extracted in step 38 and the new position. ⁇ 2020/175085 14 ⁇ (:171? 2020 /004719
  • a threshold value for example, within 100 pixels
  • a predetermined range for example, 0.8 1.2
  • the image processing apparatus 100 uses the second tracking information port stored in the storage unit.
  • the image processing apparatus 100 determines whether or not the mouth of the moving body is switched near the position where the disappearance and generation of the I mouth of the moving body are detected in the first tracking information port 1 (step 310). Then, the image processing apparatus 100 considers that there is no error in the 0 of the 1st tracking information port 1 when the switching of the moving image's head has occurred (3 10: Togomi 3), The first tracking information port 1 stored in the storage unit is directly output as the finalized tracking information port 3 (steps 3 1 2). On the other hand, it is considered that the image processing device 100 has an error in the 0 of the 1st tracking information port 1 when the switching of the moving image's port does not occur (3 10: 1 ⁇ 100).
  • Step 3 1 1 After correcting I 0 of the moving object of the 1st tracking information port 1 stored in the storage unit to the original I 0 of the 1st tracking information port 1 (Step 3 1 1), the corrected 1st tracking information is , Definite tracking information port 3 is output (step 3 1 2).
  • the image processing apparatus 100 advances the analysis target time (Cing +) (step 3 13) in order to execute the correction process for the first tracking information port 1 at the subsequent time.
  • the image processing apparatus 100 determines whether or not there is unprocessed data at the first tracking information port 1 output by the first analysis unit 30 (step 3 14), and the unprocessed data is processed. If there is data (3 1 4 : ⁇ 3), return to step 36 and perform the same processing. On the other hand, when there is no unprocessed data (3 14: N 0), the series of flow chart processing is terminated.
  • the data comparison processing unit 50 stores the first tracking information port 1 and the second tracking information 02. ⁇ 2020/175085 15 ⁇ (:171? 2020/004719
  • the axes are aligned and compared, and the position of the moving object and the I port existing in the monitored area are determined based on the first tracking information port 1 and the second tracking information port 2, and the result is confirmed. Output as 3.
  • the image processing apparatus 100 it is possible to improve the identification performance of the moving object existing in the monitoring target area. As a result, the accuracy of moving object tracking using the laser radar 200 can be improved.
  • FIG. 9 is a diagram showing the configuration of the image processing apparatus 100 according to the second embodiment.
  • the image processing device 100 is different from that of the first embodiment in that it is built in the laser radar 200. Then, the first image acquisition unit 10 of the image processing device 100 acquires image data directly from the range image generation unit 210 (that is, the imaging unit that generates the range image) of the laser radar 200.
  • the image processing apparatus 100 it is possible to eliminate the need to prepare a separate computer other than the laser radar 200 and the camera 300.
  • FIG. 10 is a diagram showing the configuration of the image processing apparatus 100 according to the third embodiment.
  • the image processing apparatus 100 acquires a power camera image from a thermal camera 400 instead of the camera 300 (hereinafter referred to as “visible light camera”) of the above embodiment.
  • the configuration is different from that of the first embodiment.
  • the thermal camera 400 since the thermal camera 400 generates a camera image based on infrared light emitted from an object, it is possible to realize high object identification accuracy even in a situation such as at night. Therefore, the image processing device 100 (second analysis unit 40) according to the present embodiment generates the second tracking information 02 by using the camera image generated by the thermal camera 400. Then, the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment uses the second tracking information 02 to correct an error in the first tracking information window 1.
  • moving object tracking is executed with high accuracy even in a situation where the monitored area is covered with fog or at night. be able to.
  • the image processing apparatus 100 may use both the camera image generated by the visible light camera and the camera image generated by the thermal camera 400. Further, when the second tracking information 02 is generated, both the camera image generated by the visible light camera and the camera image generated by the thermal camera 400 may be used, or selectively. The camera images used may be switched.
  • a mode in which a D-type laser radar is used is shown as an example of the laser radar 200, but the configuration of the laser radar 200 is arbitrary.
  • the laser radar 200 a 1 ⁇ /1 ⁇ ⁇ / ⁇ / type laser radar or the like may be used.
  • the first image acquisition unit 100 the second image acquisition unit 20, the first analysis unit 30 and the second analysis unit are used.
  • the functions of the data processing unit 40, the data comparison processing unit 50, and the data output unit 60 are described as being realized by one computer, the image processing device 100 is realized by a plurality of computers. Of course, it is okay. Also, the computer ⁇ 2020/175085 17 ⁇ (:171? 2020/004719
  • the programs and data that are read out may also be distributed and stored in multiple computers.
  • the image processing device of the present disclosure it is possible to improve the accuracy of moving body tracking using a laser radar.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

This image processing apparatus is provided with: a first analysis unit (30) which, on the basis of range images arranged in time series, generates first tracking information (D1) obtained by tracking the positions of a moving body present in a prescribed region; a second analysis unit (40) which, on the basis of camera-captured images arranged in time series, generates second tracking information (D2) obtained by tracking the positions of a moving body present in the prescribed region; and a data comparison processing unit (50) which makes a comparison between the first tracking information (D1) and the second tracking information (D2) with respective temporal axes thereof being aligned with each other and then determines the position and identification information of the moving body present in the prescribed region on the basis of the first tracking information (D1) and the second tracking information (D2).

Description

明 細 書 Specification
発明の名称 : 画像処理装置、 及び画像処理方法 Title of invention: Image processing apparatus and image processing method
技術分野 Technical field
[0001 ] 本開示は、 画像処理装置、 及び画像処理方法に関する。 The present disclosure relates to an image processing device and an image processing method.
背景技術 Background technology
[0002] カメラ等で撮影された画像に基づいて、 撮像領域内に存在する物体の位置 を検出する画像処理装置が知られている。 この種の画像処理装置は、 特に、 工事現場や工場などの業務環境において、 人や作業機 (以下、 「動体」 と総 称する) の位置を正確に把握し、 当該動体の行動又は動作を解析したり、 当 該動体の行動又は動作を予測する用途 (以下、 「行動解析」 と総称する) へ の適用が期待されている。 [0002] There is known an image processing device that detects the position of an object existing in an imaging region based on an image captured by a camera or the like. This type of image processing device accurately grasps the position of a person or a working machine (hereinafter collectively referred to as “moving body”) in a work environment such as a construction site or a factory and analyzes the action or motion of the moving body. It is also expected to be applied to applications for predicting the behavior or motion of the moving body (hereinafter collectively referred to as “behavior analysis”).
[0003] 動体の位置を把握するための技術には様々なものがあるが、 特に工事現場 などの粉塵や電磁波の反響が激しい環境においては、 レーザーレーダー (L i g ht Detect i on And Rang i ng : L i DARとも称される) のような光の反射を用いた 位置測定が有効である。 [0003] There are various technologies for recognizing the position of a moving body, but especially in an environment where dust and electromagnetic waves are reverberant, such as a construction site, laser radar (Lig ht Detect i on And Rang i ng Position measurement using light reflection such as: (also called L i DAR) is effective.
[0004] 図 1は、 レーザーレーダーに生成された距離画像の一例を示す図である。 [0004] FIG. 1 is a diagram showing an example of a range image generated by a laser radar.
[0005] 一般に、 レーザーレーダーは、 レーザ光を打ち出し、 当該レーザ光が物体 に反射して戻ってくるまでの時間 (T0F : T i me of F l i ght) を測定することで 、 自身の位置から物体の位置までの距離を求める。 そして、 レーザーレーダ 一は、 かかる処理を、 監視対象領域が映り込む所定範囲内を走査しながら行 うことにより、 距離画像に係る画像データを生成する。 かかる距離画像は、 動体の各部の三次元位置の情報を含むため、 当該動体の姿勢や動作を認識す る上で有用である。 [0005] In general, a laser radar emits a laser beam and measures the time (T0F: Time of Fli ght) until the laser beam is reflected by an object and returns to the object from its own position. Find the distance to the position of the object. Then, the laser radar 1 performs the processing while scanning within a predetermined range in which the monitoring target area is reflected, thereby generating image data related to the range image. Since such a range image includes information on the three-dimensional position of each part of the moving body, it is useful for recognizing the posture and motion of the moving body.
[0006] 特許文献 1 には、 レーザーレーダーを利用して周辺環境を測定し、 点群化 した測距点をクラスタリングして解析することで動体を認識し、 これにより 、 当該動体の位置を把握しようとする技術が開示されている。 [0006] In Patent Document 1, the surrounding environment is measured using a laser radar, and the moving object is recognized by clustering and analyzing the range-finding points that have been made into a point cloud, thereby recognizing the position of the moving object. The technique to be tried is disclosed.
先行技術文献 \¥0 2020/175085 2 卩(:17 2020 /004719 特許文献 Prior art documents \¥0 2020/175085 2 (: 17 2020/004719 Patent Document
[0007] 特許文献 1 :特開 2 0 1 4 _ 1 6 7 7 0 2号公報 発明の概要 [0007] Patent Document 1: Japanese Patent Laid-Open No. 20 1 4 _ 1 6 7 7 02
発明が解決しようとする課題 Problems to be Solved by the Invention
[0008] ところで、 この種の画像処理装置において、 動体の行動を解析するために は、 時系列に並んだ複数の画像 (フレーム) 内において、 同一物体を認識し 続ける必要がある。 即ち、 この種の画像処理装置においては、 動画像内に映 る動体のトラッキングの精度を高める要請がある。 By the way, in this type of image processing apparatus, in order to analyze the behavior of a moving body, it is necessary to continue to recognize the same object in a plurality of images (frames) arranged in time series. That is, in this type of image processing apparatus, there is a demand for improving the accuracy of tracking of a moving object shown in a moving image.
[0009] この点、 特許文献 1は、 レーザーレーダーの測定結果のみを用いて、 物体 認識を行うものであるため、 物体認識の精度の向上には限界がある。 特に、 レ—ザ—レ—ダ—により生成される距離画像は、 一般的なカメラにより生成 されるカメラ画像と比較して、 水平方向及び垂直方向の分解能が低く、 加え て撮像対象の物体の色彩の情報等を含まない。 そのため、 例えば、 レーザー レーダーで監視する監視対象領域内に、 身体的特徴が類似した人が複数存在 する場合、 レーザーレーダーにより生成される距離画像からは、 複数の人そ れそれを正しく トラッキングすることが困難である。 [0009] In this respect, Patent Document 1 limits the improvement of the accuracy of the object recognition because the object recognition is performed using only the measurement result of the laser radar. In particular, the range image generated by the laser radar has lower horizontal and vertical resolution than the camera image generated by a general camera, and in addition, Does not include color information. Therefore, for example, if there are multiple people with similar physical characteristics in the area to be monitored by the laser radar, the distance images generated by the laser radar should be used to correctly track the multiple people. Is difficult.
[0010] 本開示は、 上記問題点に鑑みてなされたもので、 レーザーレーダーを用い た動体トラッキングの精度を向上し得る画像処理装置及び画像処理方法を提 供することを目的とする。 課題を解決するための手段 [0010] The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide an image processing device and an image processing method capable of improving the accuracy of moving object tracking using a laser radar. Means for solving the problem
[001 1 ] 前述した課題を解決する主たる本開示は、 [001 1] The main disclosure for solving the above-mentioned problems is
所定領域を監視するレーザーレーダーから距離画像の画像データを取得す る第 1画像取得部と、 A first image acquisition unit that acquires range image data from a laser radar that monitors a predetermined area;
前記所定領域を監視するカメラからカメラ画像の画像データを取得する第 2画像取得部と、 A second image acquisition unit that acquires image data of a camera image from a camera that monitors the predetermined area,
時系列に並ぶ前記距離画像に基づいて、 前記所定領域に存在する動体の位 置をトラッキングした第 1 トラッキング情報を生成する第 1解析部と、 〇 2020/175085 3 卩(:171? 2020 /004719 A first analysis unit that generates first tracking information that tracks the position of a moving body existing in the predetermined region based on the distance images arranged in time series, 〇 2020/175085 3 (:171? 2020/004719
時系列に並ぶ前記カメラ画像に基づいて、 前記所定領域に存在する動体の 位置をトラッキングした第 2 トラッキング情報を生成する第 2解析部と、 前記第 1 トラッキング情報と前記第 2 トラッキング情報とを時間軸を揃え て比較し、 前記第 1 トラッキング情報と前記第 2 トラッキング情報とに基づ いて前記所定領域に存在する動体の識別情報及び位置を確定するデータ比較 処理部と、 A second analysis unit that generates second tracking information that tracks the position of a moving object existing in the predetermined area based on the camera images arranged in time series, and the first tracking information and the second tracking information with time. A data comparison processing unit that aligns and compares the axes, and determines the identification information and the position of the moving object existing in the predetermined area based on the first tracking information and the second tracking information,
を備える画像処理装置である。 An image processing apparatus including.
[0012] 又、 他の局面では、 [0012] Also, in another aspect,
所定領域を監視するレーザーレーダーから距離画像の画像データを取得し Image data of a range image is acquired from a laser radar that monitors a predetermined area.
前記所定領域を監視するカメラからカメラ画像の画像データを取得し、 時系列に並ぶ前記距離画像に基づいて、 前記所定領域に存在する動体の位 置をトラッキングした第 1 トラッキング情報を生成し、 Image data of a camera image is acquired from a camera that monitors the predetermined area, and based on the distance images arranged in time series, first tracking information that tracks the position of a moving body existing in the predetermined area is generated,
時系列に並ぶ前記カメラ画像に基づいて、 前記所定領域に存在する動体の 位置をトラッキングした第 2 トラッキング情報を生成し、 Based on the camera images arranged in time series, second tracking information is generated by tracking the position of the moving body existing in the predetermined area,
前記第 1 トラッキング情報と前記第 2 トラッキング情報とを時間軸を揃え て比較し、 前記第 1 トラッキング情報と前記第 2 トラッキング情報とに基づ いて前記所定領域に存在する動体の識別情報及び位置を確定する、 The first tracking information and the second tracking information are compared with each other on the same time axis, and based on the first tracking information and the second tracking information, the identification information and the position of the moving object existing in the predetermined area are determined. Determine,
画像処理方法である。 This is an image processing method.
発明の効果 Effect of the invention
[0013] 本開示に係る画像処理装置によれば、 レーザーレーダーを用いた動体トラ ッキングの精度を向上させることが可能である。 [0013] According to the image processing device of the present disclosure, it is possible to improve the accuracy of moving body tracking using a laser radar.
図面の簡単な説明 Brief description of the drawings
[0014] [図 1]レーザーレーダーに生成された距離画像の一例を示す図 [0014] [FIG. 1] A diagram showing an example of a range image generated by a laser radar.
[図 2]第 1の実施形態に係る監視システムの一例を示す図 [Fig. 2] Diagram showing an example of the monitoring system according to the first embodiment.
[図 3]第 1の実施形態に係る画像処理装置のハードウヱア構成を示す図 [図 4]第 1の実施形態に係る画像処理装置の機能ブロックを示す図 [図 5八]第 1解析部により生成されるトラッキング情報の一例を示す図 〇 2020/175085 4 卩(:171? 2020 /004719 [FIG. 3] A diagram showing a hardware configuration of the image processing apparatus according to the first embodiment [FIG. 4] A diagram showing functional blocks of the image processing apparatus according to the first embodiment [FIG. The figure which shows an example of the tracking information generated 〇 2020/175085 4 卩 (:171? 2020 /004719
[図 58]第 2解析部により生成されるトラッキング情報の一例を示す図[Fig.58] A diagram showing an example of tracking information generated by the second analysis unit.
[図 6]データ比較処理部の処理を模式的に説明する図 [Fig. 6] Diagram for schematically explaining the processing of the data comparison processing unit
[図 7]レーザーレーダーの視野及びカメラの視野を示す図 [Figure 7] View of the field of view of the laser radar and camera
[図 8]第 1の実施形態に係る画像処理装置 (データ比較処理部) が確定トラッ キング情報を生成する際に実行する処理を示すフローチヤート [FIG. 8] A flow chart showing processing executed when the image processing apparatus (data comparison processing unit) according to the first embodiment generates fixed tracking information.
[図 9]第 2の実施形態に係る画像処理装置の構成を示す図 [FIG. 9] A diagram showing a configuration of an image processing apparatus according to a second embodiment.
[図 10]第 3の実施形態に係る画像処理装置の構成を示す図 [FIG. 10] A diagram showing a configuration of an image processing apparatus according to a third embodiment.
発明を実施するための形態 MODE FOR CARRYING OUT THE INVENTION
[0015] 以下に添付図面を参照しながら、 本開示の好適な実施形態について詳細に 説明する。 尚、 本明細書及び図面において、 実質的に同一の機能を有する構 成要素については、 同一の符号を付することにより重複説明を省略する。 [0015] Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, constituent elements having substantially the same function are designated by the same reference numeral, and repeated description will be omitted.
[0016] (第 1の実施形態) [0016] (First embodiment)
[監視システムの全体構成] [Overall configuration of the monitoring system]
以下、 図 2〜図 4を参照して、 一実施形態に係る監視システムの構成、 及 び監視システムに適用した画像処理装置の構成の概要について説明する。 Hereinafter, with reference to FIG. 2 to FIG. 4, an outline of the configuration of the surveillance system according to the embodiment and the configuration of the image processing apparatus applied to the surveillance system will be described.
[0017] 図 2は、 本実施形態に係る監視システム IIの一例を示す図である。 本実施 形態に係る監視システムリは、 工事現場内に存在する動体 (ここでは、 人 IV! 1、 作業機
Figure imgf000006_0001
作業機
Figure imgf000006_0002
をトラッキングする用途に適用されている。
[0017] FIG. 2 is a diagram showing an example of the monitoring system II according to the present embodiment. The monitoring system according to the present embodiment is a moving object (here, a person IV!
Figure imgf000006_0001
Work machine
Figure imgf000006_0002
It is used for tracking applications.
[0018] 本実施形態に係る監視システム IIは、 画像処理装置 1 0 0、 レーザーレー ダー 2 0 0、 及び、 カメラ 3 0 0を備えている。 [0018] A monitoring system II according to this embodiment includes an image processing device 100, a laser radar 200, and a camera 300.
[0019] レーザーレーダー 2 0 0は、 例えば、 レーザ光を打ち出し、 当該レーザ光 が物体に反射して戻ってくるまでの時間
Figure imgf000006_0003
〇† 4 4 ) を測定する ことで、 自身の位置から物体の位置までの距離を求める。 レーザーレーダー 2 0 0は、 かかる処理を、 監視対象領域が映る所定範囲内を走査しながら行 うことにより、 距離画像に係る画像データ (以下、 「距離画像」 と略称する ) を生成する。 尚、 レーザーレーダー 2 0 0は、 フレーム単位の距離画像を 連続的に生成し、 時系列に並んだ距離画像 (即ち、 動画像) を画像処理装置 1 〇〇に対して出力する。 〇 2020/175085 5 卩(:171? 2020 /004719
[0019] The laser radar 200 is, for example, a time until the laser light is emitted and the laser light is reflected by an object and returns.
Figure imgf000006_0003
○ † 4 4) is measured to obtain the distance from the position of the body to the position of the object. The laser radar 200 performs such processing while scanning within a predetermined range in which the area to be monitored is imaged, thereby generating image data related to the distance image (hereinafter, abbreviated as “distance image”). The laser radar 200 continuously generates distance images in frame units and outputs distance images arranged in time series (that is, moving images) to the image processing device 100. 〇 2020/175085 5 (:171? 2020/004719
[0020] 距離画像は、 各走査位置を画素として、 画素毎に、 レーザーレーダー 2 0 [0020] The range image has a laser radar 20 for each pixel with each scanning position as a pixel.
0の測定データ (例えば、 距離及び反射強度) が画素値として対応付けられ た画像である (点群データとも称される) 。 距離画像は、 監視対象領域内に おける物体の 3次元 (例えば、 水平方向、 鉛直方向、 及び奥行方向) の位置 を示すものであり、 例えば、 物体の存在位置を 3次元の直交座標系 (X、 丫 、 ) で表す。 It is an image in which measurement data of 0 (for example, distance and reflection intensity) are associated as pixel values (also referred to as point cloud data). The range image shows a three-dimensional (eg, horizontal, vertical, and depth) position of the object in the monitored area. For example, the position of the object is detected in a three-dimensional Cartesian coordinate system (X , 丫, ).
[0021 ] カメラ 3 0 0は、 例えば、 一般的な可視カメラであり、 自身の有する撮像 素子 (〇1\/1〇3センサ又は〇〇〇センサ) が生成した画像信号を八 0変換し て、 画像データ (以下、 「カメラ画像」 と称する) を生成する。 尚、 カメラ 3 0 0は、 フレーム単位のカメラ画像を連続的に生成して、 時系列に並んだ カメラ画像 (即ち、 動画像) を画像処理装置 1 〇〇に対して出力する。 [0021] The camera 300 is, for example, a general visible camera, which converts an image signal generated by its own image pickup device (0 1\/1 0 3 sensor or 0x00 sensor) into 80 , Image data (hereinafter referred to as “camera image”) is generated. Note that the camera 300 continuously generates camera images in frame units and outputs camera images arranged in time series (that is, moving images) to the image processing apparatus 100.
[0022] カメラ画像は、 例えば、 画素毎に、
Figure imgf000007_0001
巳それぞれについての輝度値 (例 えば、
Figure imgf000007_0002
◦巳それぞれについての 2 5 6階調の輝度値) が画素値として対応 付けられた画像である。
[0022] The camera image is, for example, for each pixel,
Figure imgf000007_0001
Luminance value for each (for example,
Figure imgf000007_0002
◦ It is an image in which the brightness values of 2 5 6 gradations for each of the Tami) are associated as pixel values.
[0023] 尚、 レーザーレーダー 2 0 0及びカメラ 3 0 0は、 同一の監視対象領域を 撮像するように、 当該監視対象領域付近の適宜な位置に設置されている。 [0023] The laser radar 200 and the camera 300 are installed at appropriate positions near the monitoring target area so that the same monitoring target area is imaged.
[0024] 画像処理装置 1 0 0は、 レーザーレーダー 2 0 0で生成された距離画像の 画像データ、 及び、 カメラ 3 0 0で生成されたカメラ画像の画像データに基 づいて、 監視対象領域内に存在する動体 (図 2では、
Figure imgf000007_0004
作業機
Figure imgf000007_0003
作業機
Figure imgf000007_0005
の動きをトラッキングし、 そのトラッキング結果を出力する。
[0024] The image processing device 100, based on the image data of the range image generated by the laser radar 200 and the image data of the camera image generated by the camera 300, Existing in (in Fig. 2,
Figure imgf000007_0004
Work machine
Figure imgf000007_0003
Work machine
Figure imgf000007_0005
It tracks the movement of the and outputs the tracking result.
[0025] 図 3は、 本実施形態に係る画像処理装置 1 0 0のハードウェア構成を示す 図である。 FIG. 3 is a diagram showing a hardware configuration of the image processing apparatus 100 according to the present embodiment.
[0026] 画像処理装置 1 0 0は、 主たるコンポーネントとして、
Figure imgf000007_0006
[0026] The image processing apparatus 100 has, as a main component,
Figure imgf000007_0006
Figure imgf000007_0007
Figure imgf000007_0007
〇1〇111八〇〇㊀ 1^111〇「 ) 1 0 3、 外部記憶装置 (例えば、 フラッシュメモリ) 1 0 4、 及び、 通信インタフェイス 1 0 5等を備えたコンピュータである。 It is a computer equipped with 0111111800㊀1^111〇 ") 103, an external storage device (for example, flash memory) 104, and a communication interface 105.
[0027] 画像処理装置 1 0 0の後述する各機能は、 例えば、 0 9 1\ ] 0 1が 〇1\/1 [0027] In each function of the image processing apparatus 100 described later, for example, 091\]01 is
1 0 2、 [¾八1\/1 1 0 3、 外部記憶装置 1 0 4等に記憶された制御プログラム (例えば、 画像処理プログラム) や各種データを参照することによって実現 される。 但し、 各機能の一部又は全部は、 C P Uによる処理に代えて、 又は 、 これと共に、 D S P (Digital Signal Processor) による処理によって実 現されてもよい。 又、 同様に、 各機能の一部又は全部は、 ソフトウェアによ る処理に代えて、 又は、 これと共に、 専用のハードウェア回路 (例えば、 A S I C又は F PGA) による処理によって実現されてもよい。 Control programs stored in 1 0 2, [¾ 8 1\/1 10 3, external storage device 10 4 etc. It is realized by referring to (for example, an image processing program) and various data. However, a part or all of each function may be realized by processing by a DSP (Digital Signal Processor) instead of or together with the processing by the CPU. Similarly, part or all of each function may be realized by a process by a dedicated hardware circuit (for example, ASIC or F PGA) instead of or together with the process by software.
[0028] [画像処理装置の構成] [0028] [Configuration of image processing apparatus]
図 4は、 本実施形態に係る画像処理装置 1 00の機能ブロックを示す図で ある。 尚、 図 4中の矢印は、 データの流れを表す。 FIG. 4 is a diagram showing functional blocks of the image processing apparatus 100 according to this embodiment. The arrows in Fig. 4 represent the flow of data.
[0029] 図 5 Aは、 第 1解析部 30により生成されるトラッキング情報 D 1 (以下 、 「第 1 トラッキング情報」 と称する) の一例を示す図であり、 図 5巳は、 第 2解析部 40により生成されるトラッキング情報 D 2 (以下、 「第 2 トラ ッキング情報」 と称する) の一例を示す図である。 尚、 図 5 A、 図 5巳は、 各クレームにおける動体の位置を示しており、 丨 D (本発明の 「識別情報」 に相当する) は各動体の識別番号を表し、 t =0、 t = 1、 t =2 はフレ —ム番号を表す。 FIG. 5A is a diagram showing an example of tracking information D 1 (hereinafter, referred to as “first tracking information”) generated by the first analysis unit 30, and FIG. FIG. 6 is a diagram showing an example of tracking information D 2 (hereinafter, referred to as “second tracking information”) generated by 40. 5A and 5A show the position of the moving body in each claim, and D (corresponding to "identification information" of the present invention) represents the identification number of each moving body, and t = 0, t = 1 and t = 2 represent the frame number.
[0030] 図 6は、 データ比較処理部 50の処理を説明する図である。 図 6は、 第 1 解析部 30により生成される第 1 トラッキング情報 D 1 (左図) 、 及び、 第 2解析部 40により生成される第 2 トラッキング情報 D 2 (右図) の一例を 示している。 尚、 図 6の第 1 トラッキング情報 D 1 (左図) 及び第 2 トラッ キング情報 D 2 (右図) は、 同一の時間帯に生成されたものである。 FIG. 6 is a diagram explaining the processing of the data comparison processing unit 50. FIG. 6 shows an example of the first tracking information D 1 (left figure) generated by the first analysis section 30 and the second tracking information D 2 (right figure) generated by the second analysis section 40. There is. The first tracking information D 1 (left figure) and the second tracking information D 2 (right figure) in FIG. 6 are generated in the same time zone.
[0031] 画像処理装置 1 00は、 第 1画像取得部 1 0、 第 2画像取得部 20、 第 1 解析部 30、 第 2解析部 40、 データ比較処理部 50、 及び、 データ出力部 60を備えている。 The image processing device 100 includes a first image acquisition unit 10, a second image acquisition unit 20, a first analysis unit 30, a second analysis unit 40, a data comparison processing unit 50, and a data output unit 60. I have it.
[0032] 第 1画像取得部 1 0は、 レーザーレーダー 200が生成した距離画像の画 像データを取得する。 尚、 第 1画像取得部 1 0は、 レーザーレーダー 200 から、 時系列に並んだ距離画像を順次取得する。 The first image acquisition unit 10 acquires image data of a range image generated by the laser radar 200. The first image acquisition unit 10 sequentially acquires distance images arranged in a time series from the laser radar 200.
[0033] 第 2画像取得部 20は、 カメラ 300が生成したカメラ画像の画像データ 〇 2020/175085 7 卩(:171? 2020 /004719 The second image acquisition unit 20 is the image data of the camera image generated by the camera 300. 〇 2020/175085 7 卩(:171? 2020/004719
を取得する。 尚、 第 2画像取得部 2 0は、 カメラ 3 0 0から、 時系列に並ん だカメラ画像を順次取得する。 To get. The second image acquisition unit 20 sequentially acquires camera images arranged in time series from the camera 300.
[0034] 第 1解析部 3 0は、 時系列に並んだ距離画像に基づいて、 監視対象領域に 存在する動体の位置をトラッキングし、 その結果を第 1 トラッキング情報口 1 として出力する。 The first analysis unit 30 tracks the position of the moving object existing in the monitoring target area based on the time-series distance images, and outputs the result as the first tracking information port 1.
[0035] 具体的には、 第 1解析部 3 0は、 時系列に並んだ距離画像の各フレームに 映る動体を検出し、 動体毎に、 丨 口を付与すると共に、 及びその動体が存在 する位置を、 丨 口と関連付けて記憶する。 第 1解析部 3 0は、 例えば、 注目 フレームで検出された動体とその前フレームで検出された動体との関連度を 算出し、 当該関連度に基づいて、 注目フレームで検出された動体と前フレー ムで検出された動体との同一性を判定する。 そして、 この際、 第 1解析部 3 〇は、 注目フレームで検出された動体と前フレームで検出された動体とが同 —である場合には、 注目フレームで検出された動体に対して、 前フレームで 検出された動体と同一の丨 口を付与し、 注目フレームで検出された動体と前 フレームで検出された動体とが同一でない場合には、 注目フレームで検出さ れた動体に対して、 新規な I 0を付与する。 このようにして、 第 1解析部 3 0は、 各フレームに映る動体を、 各別に、 トラッキングする。 [0035] Specifically, the first analysis unit 30 detects a moving object appearing in each frame of the distance images arranged in time series, gives a mouth to each moving object, and exists the moving object. The position is stored in association with the mouth. The first analysis unit 30 calculates, for example, the degree of association between the moving body detected in the frame of interest and the moving body detected in the previous frame, and based on the degree of association, the moving body detected in the frame of interest and the front Determine the identity with the moving object detected in the frame. Then, at this time, if the moving body detected in the target frame and the moving body detected in the previous frame are the same, the first analysis unit 30 detects that the moving body detected in the target frame is If the same edge as the moving body detected in the frame is given and the moving body detected in the target frame and the moving body detected in the previous frame are not the same, the moving body detected in the target frame is Assign a new I 0. In this way, the first analysis unit 30 individually tracks the moving objects reflected in each frame.
[0036] 第 1解析部 3 0は、 本実施形態では、 人や作業機等、 _体的な動体毎に、 [0036] In the present embodiment, the first analysis unit 30 is provided for each physical body such as a person or a working machine.
I 口を付与すると共に、 その存在位置を特定する。 但し、 第 1解析部 3 0は 、 人の腕、 頭、 又は脚等、 一つの個体の各部位を各別の動体として認識し、 当該個体の部位毎の位置を認識するものであってもよい。 I Give a mouth and identify its location. However, even if the first analysis unit 30 recognizes each part of one individual, such as a human arm, head, or leg, as a different moving body, and recognizes the position of each part of the individual. Good.
[0037] 尚、 第 1解析部 3 0が距離画像中から動体を検出する手法は、 公知の任意 の手法であってよい。 第 1解析部 3 0は、 例えば、 注目フレームと前フレー ムとの差分を取ることによって、 動体を検出してもよい。 又、 第 1解析部 3 0は、 例えば、 距離画像中の測距点のクラスタの特徴量 (例えば、 形状及び サイズ等) に基づいて、 パターンマッチングにより、 動体 (例えば、 人や車 ) を検出してもよい。 The method of detecting the moving body from the range image by the first analysis unit 30 may be any known method. The first analysis unit 30 may detect the moving object, for example, by taking the difference between the frame of interest and the previous frame. In addition, the first analysis unit 30 detects a moving object (for example, a person or a vehicle) by pattern matching based on, for example, the feature amount (for example, shape and size) of the cluster of distance measuring points in the distance image. You may.
[0038] 又、 第 1解析部 3 0が異なるフレーム間で各動体の同一性を判定する手法 は、 公知の任意の手法であってよい。 尚、 第 1解析部 3 0は、 例えば、 注目 フレームで検出された動体と前フレームで検出された動体との間の距離、 両 者の間のサイズの類似性、 両者の間の形状の類似性、 両者の間の色の類似性 、 及び、 両者の間の移動速度の類似性等に基づいて、 両者の間の関連度を算 出する。 そして、 第 1解析部 3 0は、 当該関連が所定値以上の場合、 注目フ レームで検出された動体と前フレームで検出された動体とが同 _であると判 定する。 [0038] Further, the first analysis unit 30 is a method for determining the identity of each moving object between different frames. May be any known method. The first analysis unit 30 may determine, for example, the distance between the moving object detected in the frame of interest and the moving object detected in the previous frame, the size similarity between the two, and the shape similarity between the two. The degree of relevance between the two is calculated based on the gender, the color similarity between the two, and the moving speed similarity between the two. Then, the first analysis unit 30 determines that the moving object detected in the frame of interest and the moving object detected in the previous frame are the same _ when the relationship is equal to or more than the predetermined value.
[0039] 但し、 より好適には、 第 1解析部 3 0は、 機械学習により学習済みの識別 器モデルを用いて、 距離画像中から動体を検出したり、 第 1解析部 3 0が異 なるフレーム間で各動体の同一性を判定する。 これにより、 動体の見え方の 変化に対する、 動体検出のロバスト性や動体の同一性判定のロバスト性を高 めることが可能である。 例えば、 第 1解析部 3 0が距離画像中から動体を検 出する際には、 置み込みニュートラルネッ トワーク (Convo lut i ona l Neura l Network : C N N ) を用いるのが好適である。 又、 第 1解析部 3 0が異なるフ レーム間で各動体の同一性を判定する際には、 例えば、 隠れマルコフモデル (H i dden Markov Mode l : H M M ) を用いるのが好適である。 その際、 識別器 モデルに対しては、 入力画像と正解値とが関連付けられて構成された学習デ —夕を用いた強化学習により、 機械学習を実行すればよい。 However, more preferably, the first analysis unit 30 uses a discriminator model that has been learned by machine learning to detect a moving object in the range image, or the first analysis unit 30 is different. Determine the identity of each moving object between frames. This makes it possible to enhance the robustness of moving body detection and the robustness of moving body identity determination against changes in the appearance of moving bodies. For example, when the first analysis unit 30 detects a moving body from the range image, it is preferable to use a convolutional neural network (Convolutional Neural Network: C NN). Further, when the first analysis unit 30 determines the identity of each moving object between different frames, it is preferable to use a hidden Markov model (Hidden Markov Mode l: HM M ), for example. At that time, for the classifier model, machine learning may be executed by reinforcement learning using a learning data set in which the input image and the correct answer value are associated with each other.
[0040] 第 1 トラッキング情報 D 1は、 例えば、 時系列に並んだ距離画像の各フレ —ムにおける動体の位置 (ここでは、 三次元の座標位置) を示すデータであ る (図 5 Aを参照) 。 第 1 トラッキング情報 D 1は、 例えば、 動体毎に、 I Dと当該動体の位置の時間的変化に係る情報を含む。 即ち、 第 1 トラッキン グ情報 D 1は、 各フレームに映る同 _の動体には、 _つの丨 Dのみを付与し て、 当該動体を識別している。 そして、 監視対象領域内に複数の動体が存在 する場合には、 第 1 トラッキング情報 D 1は、 複数の動体それぞれに個別の I Dを付与して、 当該動体の位置の時間的変化を関連付けて記録する。 [0040] The first tracking information D1 is, for example, data indicating the position (here, three-dimensional coordinate position) of the moving body in each frame of the distance images arranged in time series (see Fig. 5A. See). The first tracking information D 1 includes, for example, for each moving body, an ID and information regarding a temporal change in the position of the moving body. In other words, the first tracking information D 1 identifies the moving body of the same _ in each frame by giving only one _ D. When there are multiple moving objects in the monitored area, the first tracking information D 1 is recorded by assigning an individual ID to each of the multiple moving objects and associating the temporal change of the position of the moving object. To do.
[0041 ] 第 2解析部 4 0は、 時系列に並んだカメラ画像に基づいて、 監視対象領域 に存在する動体の位置をトラッキングし、 その結果を第 2 トラッキング情報 〇 2020/175085 9 卩(:171? 2020 /004719 [0041] The second analysis unit 40 tracks the position of the moving object existing in the monitoring target area based on the time-sequential camera images, and outputs the result as the second tracking information. 〇 2020/175085 9 卩 (:171? 2020 /004719
口 2として出力する。 Output as mouth 2.
[0042] 第 2解析部 4 0がカメラ画像中から動体を検出する手法、 及び異なるフレ —ム間で各動体を同定する手法は、 第 1解析部 3 0と同様に、 公知の任意の 手法を用いることができる。 尚、 第 2解析部 4 0は、 これらの処理の際に、 第 1解析部 3 0と同様に、 学習済みの識別器モデルを用いるのが望ましい。 [0042] As with the first analysis section 30, the second analysis section 40 detects a moving body from a camera image and the method of identifying each moving body among different frames is a known arbitrary method. Can be used. It is desirable that the second analysis unit 40 uses the trained discriminator model when performing these processes, similarly to the first analysis unit 30.
[0043] 第 2 トラッキング情報 0 2は、 例えば、 時系列に並んだカメラ画像の各フ レームにおける動体の位置 (ここでは、 二次元の座標位置) を示すデータで ある (図 5巳を参照) 。 第 2 トラッキング情報 0 2には、 第 1 トラッキング 情報口 1 と同様に、 動体毎に、 丨 口と当該動体の位置の時間的変化とが関連 付けて記録されている。 [0043] The second tracking information 02 is, for example, data indicating the position (here, two-dimensional coordinate position) of the moving object in each frame of the camera images arranged in time series (see Fig. 5). .. In the second tracking information 02, as with the first tracking information port 1, the mouth and the temporal change of the position of the moving body are recorded in association with each other for each moving body.
[0044] データ比較処理部 5 0は、 第 1 トラッキング情報口 1 と第 2 トラッキング 情報口 2とを時間軸を揃えて比較し、 第 1 トラッキング情報口 1 と第 2 トラ ッキング情報 0 2とに基づいて監視対象領域に存在する動体の位置及び I 0 を確定して、 その結果を確定トラッキング情報口 3として出力する。 The data comparison processing unit 50 compares the first tracking information port 1 and the second tracking information port 2 while aligning the time axes, and determines the first tracking information port 1 and the second tracking information port 0 2. Based on this, the position and I 0 of the moving object existing in the monitored area are confirmed, and the result is output as the confirmed tracking information port 3.
[0045] 図 6の左図は、 第 1解析部 3 0における動体の識別処理に誤りが生じ、 同 一の動体 (ここでは、 人) に対して付与する 丨 口が、 途中で変更された態様 ( 1 0 ^ 1 1 ^ 1 0 ^ 1 2) を表している。 一方、 図 6の右図は、 第 2 解析部 4 0が同一の動体 (ここでは、 人) の I 口を正確に捉えている態様を 表している。 [0045] In the left diagram of Fig. 6, an error occurred in the moving object identification processing in the first analysis unit 30 and the mouth to be given to the same moving object (here, a person) was changed on the way. The mode (1 0 ^ 1 1 ^ 1 0 ^ 12) is shown. On the other hand, the right diagram of Fig. 6 shows a mode in which the second analysis unit 40 accurately captures the I mouth of the same moving body (here, a person).
[0046] 一般に、 距離画像からは、 水平方向と垂直方向の座標に加えて、 奥行方向 の座標について動体の位置を特定することが可能である。 そのため、 距離画 像に基づいて動体の各部の位置を特定することは、 当該動体の姿勢や当該動 体の行動を正確に特定する上で、 有用である。 [0046] In general, it is possible to specify the position of the moving body not only in the horizontal and vertical directions but also in the depth direction from the range image. Therefore, specifying the position of each part of the moving body based on the distance image is useful in accurately specifying the posture of the moving body and the behavior of the moving body.
[0047] しかしながら、 距離画像は、 カメラ画像と異なり、 分解能が低く、 且つ、 色情報を含まないため、 距離画像からは、 異なるフレーム間での動体の同定 が困難な場合がある。 特に、 動体のトラッキングを行う際に、 当該動体が、 他の動体と交差したり、 姿勢を変化させたりしたときに、 当該動体が前の時 点で検出されていた動体と同一のものか否かを同定することができないおそ 〇 2020/175085 10 卩(:171? 2020 /004719 However, unlike a camera image, a range image has low resolution and does not include color information. Therefore, it may be difficult to identify a moving object between different frames from the range image. In particular, when tracking a moving object, if the moving object intersects another moving object or changes its posture, whether the moving object is the same as the one detected at the previous time point. Can't identify 〇 2020/175085 10 boxes (:171? 2020 /004719
れがある。 There is
[0048] 一方、 カメラ画像は、 分解能が高く、 且つ、 色情報を含むため、 異なるフ レーム間での動体の同定をより正確に行うことが可能である。 [0048] On the other hand, since the camera image has high resolution and includes color information, it is possible to more accurately identify a moving object between different frames.
[0049] そこで、 データ比較処理部 5 0は、 第 2 トラッキング情報 0 2を用いて第 Therefore, the data comparison processing unit 50 uses the second tracking information 02 to determine the first
1 トラッキング情報口 1 に含まれる動体の I 口の正誤判定を行う。 そして、 データ比較処理部 5 0は、 第 1 トラッキング情報口 1 に含まれる動体の丨 0 の変化が、 第 2 トラッキング情報口 2に含まれる動体の I 0の変化と異なる 場合には、 第 1 トラッキング情報口 1 に含まれる動体の I 口の変化に誤りが あるとみなして、 第 1 トラッキング情報口 1 に含まれる動体の I 0を、 第 2 トラッキング情報口 2に含まれる動体の I 0に補正して、 補正後の第 1 トラ ッキング情報 0 1 を確定トラッキング情報口 3として出力する。 1 Determine the correctness of the I mouth of the moving object included in the tracking information mouth 1. Then, the data comparison processing unit 50, if the change in the index 0 of the moving object included in the first tracking information port 1 is different from the change in the I 0 of the moving object included in the second tracking information port 2, Considering that there is an error in the change of the mouth I of the moving object included in tracking information port 1, I 0 of the moving object included in first tracking information port 1 is changed to I 0 of the moving object included in second tracking information port 2. After correction, the corrected first tracking information 0 1 is output as the fixed tracking information port 3.
[0050] データ比較処理部 5 0が第 1 トラッキング情報口 1 に含まれる動体と第 2 トラッキング情報口 2に含まれる動体との対応関係を特定する手法としては 、 典型的には、 第 1 トラッキング情報口 1 に含まれる動体の位置と第 2 トラ ッキング情報 0 2に含まれる動体の位置との近接度合い (例えば、 両者の距 離又は両者の重複する領域) を算出する手法を用いる。 尚、 データ比較処理 部 5 0にて当該処理を実行し得るように、 第 1 トラッキング情報口 1が示す 座標位置と第 2 トラッキング情報口 2が示す座標位置との対応関係を示すデ —夕を、 予め画像処理装置 1 0 0の [¾〇1\/1 1 0 2等に記憶しておくのが望ま しい。 [0050] As a method for the data comparison processing unit 50 to identify the correspondence between the moving body included in the first tracking information port 1 and the moving body included in the second tracking information port 2, typically, the first tracking A method of calculating the degree of proximity between the position of the moving body included in the information port 1 and the position of the moving body included in the second tracking information 02 (for example, the distance between the two or the overlapping area of the two) is used. In order that the data comparison processing unit 50 can execute the process, a data set indicating the correspondence between the coordinate position indicated by the first tracking information port 1 and the coordinate position indicated by the second tracking information port 2 is displayed. It is desirable that the image is stored in advance in the image processing device 100 such as [1/1\/110 2].
[0051 ] 但し、 データ比較処理部 5 0は、 レーザーレーダー 2 0 0の視野情報と力 メラ 3 0 0の視野情報とを参照して、 両者の視野の相違を考慮した上で、 第 1 トラッキング情報口 1 に含まれる動体と第 2 トラッキング情報口 2に含ま れる動体との対応関係を特定するのが望ましい。 [0051] However, the data comparison processing unit 50 refers to the visual field information of the laser radar 200 and the visual field information of the camera 300 to consider the difference between the visual fields of the two, and then performs the first tracking. It is desirable to identify the correspondence between the moving object included in information port 1 and the moving object included in the second tracking information port 2.
[0052] 図 7は、 レーザーレーダー 2 0 0の視野及びカメラ 3 0 0の視野を示す図 である。 レーザーレーダー 2 0 0の視野 1は、 一般に、 カメラ 3 0 0の視 野 2に比べて垂直方向の撮像範囲が狭い。 そのため、 距離画像内に映る動 体は、 カメラ画像内に映る動体とは異なって、 動体の全部が距離画像内に映 〇 2020/175085 1 1 卩(:171? 2020 /004719 [0052] Fig. 7 is a diagram showing the field of view of the laser radar 200 and the field of view of the camera 300. The field of view 1 of the laser radar 200 is generally narrower in the vertical imaging range than the field of view 2 of the camera 300. Therefore, the moving object shown in the range image is different from the moving object shown in the camera image, and the whole moving object is shown in the range image. 〇 2020/175085 1 1 卩(:171? 2020/004719
っていない可能性がある。 例えば、 カメラ画像内には、 人の全身が映ってい る一方、 距離画像内には、 人の上半身のみが映っている可能性がある。 従っ て、 データ比較処理部 5 0は、 例えば、 距離画像内に映る動体とカメラ画像 内に映る動体との間における形状の相違を考慮し、 第 1 トラッキング情報口 1 に含まれる動体と第 2 トラッキング情報口 2に含まれる動体との対応関係 を特定するのが望ましい。 データ比較処理部 5 0は、 例えば、 レーザーレー ダー 2 0 0において縦画角に完全に見切れている物体の場合はそれ以上に縦 に大きなものが同 _物体の条件となり、 レーザーレーダー 2 0 0の縦画角内 に物体が完全に収まっているようならそれよりも大きな物体は距離的に近似 であっても別物体の可能性が高い、 と判断できる。 これによって、 物体判別 の正確性を向上させることができる。 It may not be. For example, a camera image may show the whole body of a person, while a range image may show only the upper half of the person. Therefore, the data comparison processing unit 50, for example, considers the difference in shape between the moving object in the range image and the moving object in the camera image, and considers the moving object included in the first tracking information port 1 and the second object. It is desirable to identify the correspondence with the moving object included in tracking information port 2. Comparison unit 5 0, for example, becomes large is the same _ object conditions vertically to more if the object being Mikire completely vertically angle in the laser radar 2 0 0, the laser radar 2 0 0 If an object is completely contained within the vertical angle of view of, it can be judged that an object larger than that is likely to be another object even if it is approximate in terms of distance. This can improve the accuracy of object discrimination.
[0053] 他方、 データ比較処理部 5 0は、 処理負荷を軽減する観点から、 より好適 には、 第 1 トラッキング情報口 1 を参照して、 以下の第 1状況乃至第 3状況 のいずれかが発生しているか否かを判定して、 第 1状況乃至第 3状況のいず れかが発生している場合に限って、 第 2 トラッキング情報口 2を参照するの が望ましい。 換言すると、 データ比較処理部 5 0は、 第 1状況乃至第 3状況 のいずれも発生していない場合には、 第 2 トラッキング情報口 2を参照する ことなく、 第 1 トラッキング情報口 1 をそのまま確定トラッキング情報 0 3 として出力するのが望ましい。 On the other hand, from the viewpoint of reducing the processing load, the data comparison processing unit 50 more preferably refers to the first tracking information port 1 and refers to any one of the following first to third situations. It is desirable to judge whether or not it has occurred and refer to the second tracking information port 2 only when any of the first to third situations has occurred. In other words, the data comparison processing unit 50 determines the first tracking information port 1 as it is without referring to the second tracking information port 2 when neither of the first situation to the third situation occurs. It is desirable to output as tracking information 0 3.
[0054] 具体的には、 第 1状況は、 第 1 トラッキング情報口 1 において、 同ータイ ミングにおいて、 一つの丨 口が消滅すると共に新たに別個の丨 0が生成され ている状況である。 第 2状況は、 第 1 トラッキング情報口 1 において、 ある 動体が他の動体と交差している状況である。 第 3状況は、 第 1 トラッキング 情報口 1 において、 ある動体が、 一旦、 距離画像内から消えた後に、 再度、 同一の丨 口の動体として出現している状況である。 [0054] Specifically, in the first situation, in the first tracking information port 1, in the same timing, one door disappears and a new, separate one is generated. The second situation is that one moving body intersects another moving body at the first tracking information port 1. The third situation is that in the first tracking information port 1, a certain moving object once disappears from within the range image, and then appears again as a moving object of the same opening.
[0055] 第 1 トラッキング情報口 1 において、 第 1状況乃至第 3状況のいずれかが 発生している場合には、 第 1 トラッキング情報口 1 に含まれる動体の丨 0に 誤りが発生している可能性がある。 例えば、 第 1状況では、 同一の動体が、 〇 2020/175085 12 卩(:171? 2020 /004719 [0055] If any of the first situation to the third situation occurs in the first tracking information port 1, an error has occurred in 0 of the moving object included in the first tracking information port 1. there is a possibility. For example, in the first situation, the same moving body 〇 2020/175085 12 boxes (:171? 2020 /004719
—のフレームと他のフレームとで異なる動体と誤認識されている可能性があ る。 又、 第 2状況では、 ある動体が他の動体と交差したタイミングで、 当該 ある動体が交差した他の動体と誤認識されている可能性がある。 又、 第 3状 況では、 ある動体が監視対象領域から消えた位置と近接する位置から、 当該 監視対象領域に入った他の動体が、 先に存在した動体と誤認識されている可 能性がある (または、 その反対の可能性もある) 。 一方、 第 1状況乃至第 3 状況のいずれの状況も発生していない場合には、 第 1 トラッキング情報口 1 に含まれる動体の丨 口に誤りが発生している可能性が低い。 — There is a possibility that the frame and the other frame are erroneously recognized as different moving objects. Also, in the second situation, at the timing when a certain moving body intersects with another moving body, it is possible that the certain moving body is erroneously recognized as another moving body that intersected. Also, in the third situation, from the position where one moving body disappears from the monitored area, it is possible that another moving body that has entered the monitored area is erroneously recognized as the previously existing moving body. Yes (or vice versa). On the other hand, if none of the first to third situations has occurred, it is unlikely that an error has occurred in the mouth of the moving object included in the first tracking information port 1.
[0056] かかる観点から、 データ比較処理部 5 0は、 上記したように、 状況に応じ て、 第 1 トラッキング情報口 1の正誤判定を実施するか否かを決定するのが 望ましい。 これによって、 不必要なデータ処理を割愛し、 処理負荷の軽減を 図ることができる。 From this point of view, it is desirable that the data comparison processing unit 50 decides whether or not to carry out the correctness determination of the first tracking information port 1 depending on the situation as described above. As a result, unnecessary data processing can be omitted and the processing load can be reduced.
[0057] データ出力部 6 0は、 データ比較処理部 5 0が生成した確定トラッキング 情報 0 3を、 外部に出力する。 データ出力部 6 0は、 例えば、 確定トラッキ ング情報口 3を表示画像形式のデータに変換して、 ディスプレイに表示させ る。 The data output unit 60 outputs the definite tracking information 03 generated by the data comparison processing unit 50 to the outside. The data output unit 60 converts, for example, the confirmed tracking information port 3 into display image format data and displays it on the display.
[0058] [画像処理装置の動作フロー] [Operation Flow of Image Processing Device]
次に、 図 8を参照して、 本実施形態に係る画像処理装置 1 0 0の動作の一 例について説明する。 Next, with reference to FIG. 8, an example of the operation of the image processing apparatus 100 according to the present embodiment will be described.
[0059] 図 8は、 本実施形態に係る画像処理装置 1 0 0 (データ比較処理部 5 0) が確定トラッキング情報を生成する際に実行する処理を示すフローチヤート である。 図 8に示すフローチヤートは、 例えば、 画像処理装置 1 0 0がコン ピユータプログラムに従って、 実行するものである。 FIG. 8 is a flow chart showing processing executed when the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment generates fixed tracking information. The flow chart shown in FIG. 8 is executed by the image processing apparatus 100 according to a computer program, for example.
[0060] ステップ 3 1 ~ 3 5は、 第 1 トラッキング情報口 1 と第 2 トラッキング情 報口 2とを比較する処理を行うための前処理工程である。 この前処理工程で は、 まず、 画像処理装置 1 0 0 (第 1解析部 3 0) は、 時系列に並んだ距離 画像に基づいて、 第 1 トラッキング情報口 1 を生成する (ステップ 3 1) 。 次に、 画像処理装置 1 〇〇 (第 2解析部 4 0) は、 時系列に並んだカメラ画 〇 2020/175085 13 卩(:171? 2020 /004719 [0060] Steps 31 to 35 are preprocessing steps for performing a process of comparing the first tracking information port 1 and the second tracking information port 2. In this pre-processing step, first, the image processing device 100 (first analysis unit 30) generates the first tracking information port 1 based on the time-sequential distance images (step 31). .. Next, the image processing device 100 (second analysis unit 40) was used to display the camera images arranged in time series. 〇 2020/175085 13 卩 (:171? 2020 /004719
像に基づいて、 第 2 トラッキング情報 0 2を生成する (ステップ 3 2) 。 次 に、 画像処理装置 1 〇〇は、 第 1 トラッキング情報口 1 と第 2 トラッキング 情報口 2とを比較する解析対象時刻 (例えば、 時刻丁 = 8 : 0 0 : 0 0) を 設定する (ステップ 3 3) 。 次に、 画像処理装置 1 0 0は、 第 1 トラッキン グ情報口 1 と第 2 トラッキング情報 0 2とを比較する際の解析対象のフレー ム数 (例えば、 フレーム数 n = 5) を設定する (ステップ 3 4) 。 次に、 画 像処理装置 1 〇〇は、 解析対象の時間間隔 (例えば、 解析対象間隔 = 1秒 間隔) を設定する (ステップ 3 5) 。 Second tracking information 0 2 is generated based on the image (step 3 2 ). Next, the image processing device 100 sets the analysis target time (for example, time D = 8: 0 0: 0 0) for comparing the first tracking information port 1 and the second tracking information port 2 (step 3 3). Next, the image processing device 100 sets the number of frames to be analyzed when comparing the first tracking information port 1 and the second tracking information 0 2 (for example, the number of frames n = 5) ( Step 3 4). Next, the image processing device 100 sets the time interval of the analysis target (for example, analysis target interval = 1 second interval) (step 35).
[0061 ] 次に、 画像処理装置 1 0 0は、 ステップ 3 3 ~ 3 5で設定した条件に沿つ て、 データ比較用の記憶部 (例えば、 比較用キユー) に、 1 フレーム分の第 1 トラッキング情報口 1 と第 2 トラッキング情報 0 2とを登録する (ステッ プ3 6) 。 次に、 画像処理装置 1 0 0は、 記憶部に、 2フレーム分以上のデ —夕 (第 1 トラッキング情報口 1及び第 2 トラッキング情報 0 2) が含まれ るか否かを判定し (ステップ 3 7) 、 2フレーム分以上のデータが含まれる 場合 { ~1 : 丫巳3) 、 続くステップ 3 8の判定処理に処理を進め、 一方、 [0061] Next, the image processing apparatus 100 causes the storage unit for data comparison (for example, the comparison queue) to store the first frame of one frame according to the conditions set in steps 33 to 35. Register tracking information port 1 and second tracking information 0 2 (step 36). Next, the image processing apparatus 100 determines whether or not the storage section includes two or more frames of data (first tracking information port 1 and second tracking information 0 2) (step 3 7), if data of 2 frames or more is included {~1 :丫巳 3), proceed to the determination process of the following step 38, while
2フレーム分以上のデータが含まれない場合 (3 7 : N 0) 、 続くステップ 3 1 2に処理を進める。 When the data of 2 frames or more is not included (37: N 0), the process proceeds to the following step 3 1 2.
[0062] 次に、 画像処理装置 1 0 0は、 記憶部に記憶した第 1 トラッキング情報口 Next, the image processing apparatus 100 uses the first tracking information port stored in the storage unit.
1 に、 同ータイミング内での丨 口の消滅と生成とが含まれる否かを判定し ( ステップ 3 8) 、 I 口の消滅と生成とが含まれる場合 (3 8 : 丫巳3) 、 続 くステップ 3 9に処理を進める。 一方、 丨 口の消滅と生成とが含まれない場 合 (3 8 : N 0) 、 続くステップ 3 1 2に処理を進める。 It is determined whether 1 includes the disappearance and generation of the mouth in the same timing (step 38), and if the disappearance and generation of the mouth I is included (3 8: 巫3 3), continue. Then proceed to step 39. On the other hand, if the extinction and the creation of the mouth are not included (3 8 :N 0), the process proceeds to the following step 3 1 2.
[0063] 次に、 画像処理装置 1 0 0は、 ステップ 3 8で抽出した消滅 I 0の動体と 、 新規生成丨 口の動体とが、 位置及びサイズに関して所定条件を充足するか 否かを判定し (ステップ 3 9) 、 当該所定条件を充足する場合 (3 9 : 丫巳 3) 、 続くステップ 3 1 0に処理を進め、 当該所定条件を充足しない場合 ( 3 9 : N 0) 、 続くステップ 3 1 2に処理を進める。 具体的には、 画像処理 装置 1 0 0は、 ステップ 3 8で抽出した消滅 I 口の動体の重心位置と、 新規 〇 2020/175085 14 卩(:171? 2020 /004719 [0063] Next, the image processing apparatus 100 determines whether or not the moving body of the disappearance I0 extracted in step 38 and the moving body of the newly generated entrance satisfy predetermined conditions regarding position and size. However, if the predetermined condition is satisfied (39: No. 3), the process proceeds to the following step 310, and if the predetermined condition is not satisfied (39: N 0), the next step. Proceed to 3 1 2. Specifically, the image processing apparatus 100 uses the position of the center of gravity of the moving body of the vanishing I mouth extracted in step 38 and the new position. 〇 2020/175085 14 卩 (:171? 2020 /004719
生成丨 口の動体の重心位置との距離が、 画像内で閾値以下 (例えば、 1 0 0 ピクセル以内) であるか、 及び、 両者のサイズの比が、 所定範囲内 (例えば 、 〇. 8〜 1 . 2) であるかを判定する。 Whether the distance between the center of gravity of the moving object and the center of gravity of the moving object is less than or equal to a threshold value (for example, within 100 pixels) in the image, and the ratio between the sizes is within a predetermined range (for example, 0.8 1.2) is determined.
[0064] 次に、 画像処理装置 1 0 0は、 記憶部に記憶した第 2 トラッキング情報口 Next, the image processing apparatus 100 uses the second tracking information port stored in the storage unit.
2に、 第 1 トラッキング情報口 1 において動体の I 口の消滅と生成が検出さ れた位置付近で、 動体の丨 口の切り替わりが生じていたか否かを判定する ( ステップ 3 1 0) 。 そして、 画像処理装置 1 0 0は、 動体の丨 口の切り替わ りが生じていた場合 (3 1 0 : 丫巳3) 、 第 1 トラッキング情報口 1の丨 0 に誤りはないとみなして、 記憶部に記憶した第 1 トラッキング情報口 1 を、 そのまま確定トラッキング情報口 3として出力する (ステップ 3 1 2) 。 一 方、 画像処理装置 1 〇〇は、 動体の丨 口の切り替わりが生じていない場合 ( 3 1 0 : 1\1〇) 、 第 1 トラッキング情報口 1の丨 0に誤りが生じているとみ なして、 記憶部に記憶した第 1 トラッキング情報口 1の動体の I 0を、 第 1 トラッキング情報口 1の元の I 0に補正した後 (ステップ 3 1 1) 、 補正後 の第 1 トラッキング情報 を、 確定トラッキング情報口 3として出力する (ステップ 3 1 2) 。 Second, it is determined whether or not the mouth of the moving body is switched near the position where the disappearance and generation of the I mouth of the moving body are detected in the first tracking information port 1 (step 310). Then, the image processing apparatus 100 considers that there is no error in the 0 of the 1st tracking information port 1 when the switching of the moving image's head has occurred (3 10: Togomi 3), The first tracking information port 1 stored in the storage unit is directly output as the finalized tracking information port 3 (steps 3 1 2). On the other hand, it is considered that the image processing device 100 has an error in the 0 of the 1st tracking information port 1 when the switching of the moving image's port does not occur (3 10: 1\100). Then, after correcting I 0 of the moving object of the 1st tracking information port 1 stored in the storage unit to the original I 0 of the 1st tracking information port 1 (Step 3 1 1), the corrected 1st tracking information is , Definite tracking information port 3 is output (step 3 1 2).
[0065] かかる処理により、 ステップ 3 4で設定したフレーム数分の第 1 トラッキ ング情報口 1の補正処理が終了する。 そして、 画像処理装置 1 0 0は、 続く 時刻の第 1 トラッキング情報口 1 についての補正処理を実行するため、 解析 対象時刻を先に進める (丁 丁 + ) (ステップ 3 1 3) 。 次に、 画像処理 装置 1 0 0は、 第 1解析部 3 0が出力した第 1 トラッキング情報口 1で、 未 処理のデータがあるか否かを判定し (ステップ 3 1 4) 、 未処理のデータが ある場合 (3 1 4 : 丫巳3) 、 ステップ 3 6に戻って、 同様の処理を実行す る。 一方、 未処理のデータがない場合 (3 1 4 : N 0) 、 一連のフローチヤ -卜の処理を終了する。 With this processing, the correction processing of the first tracking information port 1 for the number of frames set in step 34 is completed. Then, the image processing apparatus 100 advances the analysis target time (Cing +) (step 3 13) in order to execute the correction process for the first tracking information port 1 at the subsequent time. Next, the image processing apparatus 100 determines whether or not there is unprocessed data at the first tracking information port 1 output by the first analysis unit 30 (step 3 14), and the unprocessed data is processed. If there is data (3 1 4 :丫巳 3), return to step 36 and perform the same processing. On the other hand, when there is no unprocessed data (3 14: N 0), the series of flow chart processing is terminated.
[0066] [効果] [0066] [Effect]
以上のように、 本実施形態に係る画像処理装置 1 0 0は、 データ比較処理 部 5 0にて、 第 1 トラッキング情報口 1 と第 2 トラッキング情報 0 2とを時 〇 2020/175085 15 卩(:171? 2020 /004719 As described above, in the image processing apparatus 100 according to the present embodiment, the data comparison processing unit 50 stores the first tracking information port 1 and the second tracking information 02. 〇 2020/175085 15 卩(:171? 2020/004719
間軸を揃えて比較し、 第 1 トラッキング情報口 1 と第 2 トラッキング情報口 2とに基づいて監視対象領域に存在する動体の位置及び I 口を確定して、 そ の結果を確定トラッキング情報口 3として出力する。 The axes are aligned and compared, and the position of the moving object and the I port existing in the monitored area are determined based on the first tracking information port 1 and the second tracking information port 2, and the result is confirmed. Output as 3.
[0067] 従って、 本実施形態に係る画像処理装置 1 0 0によれば、 監視対象領域に 存在する動体の識別性能を向上させることが可能である。 これによって、 レ —ザーレーダー 2 0 0を用いた動体トラッキングの精度を向上させることが できる。 Therefore, according to the image processing apparatus 100 according to the present embodiment, it is possible to improve the identification performance of the moving object existing in the monitoring target area. As a result, the accuracy of moving object tracking using the laser radar 200 can be improved.
[0068] (第 2の実施形態) [0068] (Second Embodiment)
次に、 図 9を参照して、 第 2の実施形態に係る画像処理装置 1 0 0につい て説明する。 図 9は、 第 2の実施形態に係る画像処理装置 1 0 0の構成を示 す図である。 Next, an image processing device 100 according to the second embodiment will be described with reference to FIG. FIG. 9 is a diagram showing the configuration of the image processing apparatus 100 according to the second embodiment.
[0069] 本実施形態に係る画像処理装置 1 0 0は、 レーザーレーダー 2 0 0に内蔵 されている点で、 第 1の実施形態と相違する。 そして、 画像処理装置 1 〇〇 の第 1画像取得部 1 0は、 レーザーレーダー 2 0 0の距離画像生成部 2 1 0 (即ち、 距離画像を生成する撮像部) から直接画像データを取得する。 The image processing device 100 according to this embodiment is different from that of the first embodiment in that it is built in the laser radar 200. Then, the first image acquisition unit 10 of the image processing device 100 acquires image data directly from the range image generation unit 210 (that is, the imaging unit that generates the range image) of the laser radar 200.
[0070] 本実施形態に係る画像処理装置 1 0 0によれば、 レーザーレーダー 2 0 0 及びカメラ 3 0 0以外の別体のコンピュータを用意する必要性をなくすこと が可能である。 According to the image processing apparatus 100 according to the present embodiment, it is possible to eliminate the need to prepare a separate computer other than the laser radar 200 and the camera 300.
[0071 ] (第 3の実施形態) [0071] (Third Embodiment)
次に、 図 1 〇を参照して、 第 3の実施形態に係る画像処理装置 1 0 0につ いて説明する。 図 1 〇は、 第 3の実施形態に係る画像処理装置 1 0 0の構成 を示す図である。 Next, an image processing apparatus 100 according to the third embodiment will be described with reference to FIG. FIG. 10 is a diagram showing the configuration of the image processing apparatus 100 according to the third embodiment.
[0072] 本実施形態に係る画像処理装置 1 0 0は、 上記実施形態のカメラ 3 0 0 ( 以下、 「可視光カメラ」 と称する) に代えて、 サーマルカメラ 4 0 0から力 メラ画像を取得する構成としている点で、 第 1の実施形態と相違する。 The image processing apparatus 100 according to the present embodiment acquires a power camera image from a thermal camera 400 instead of the camera 300 (hereinafter referred to as “visible light camera”) of the above embodiment. The configuration is different from that of the first embodiment.
[0073] 可視光カメラ 3 0 0により生成されたカメラ画像は、 色情報を含むため、 高い物体識別精度を実現することができる。 一方、 監視対象領域が霧に覆わ れている状況下や、 夜間においては、 カメラ画像を用いた物体識別精度は低 〇 2020/175085 16 卩(:171? 2020 /004719 Since the camera image generated by the visible light camera 300 includes color information, high object identification accuracy can be realized. On the other hand, when the monitored area is covered with fog or at night, the object identification accuracy using camera images is low. 〇 2020/175085 16 卩(:171? 2020/004719
下する。 Down.
[0074] この点、 サーマルカメラ 4 0 0は、 物体から放射される赤外光に基づいて カメラ画像を生成するため、 夜間等の状況下においても、 高い物体識別精度 を実現することができる。 そこで、 本実施形態に係る画像処理装置 1 〇〇 ( 第 2解析部 4 0) は、 サーマルカメラ 4 0 0により生成されたカメラ画像を 用いて、 第 2 トラッキング情報 0 2を生成する。 そして、 本実施形態に係る 画像処理装置 1 〇〇 (データ比較処理部 5 0) は、 当該第 2 トラッキング情 報 0 2を用いて、 第 1 トラッキング情報口 1の丨 口の誤りを補正する。 In this respect, since the thermal camera 400 generates a camera image based on infrared light emitted from an object, it is possible to realize high object identification accuracy even in a situation such as at night. Therefore, the image processing device 100 (second analysis unit 40) according to the present embodiment generates the second tracking information 02 by using the camera image generated by the thermal camera 400. Then, the image processing apparatus 100 (data comparison processing unit 50) according to the present embodiment uses the second tracking information 02 to correct an error in the first tracking information window 1.
[0075] 以上のように、 本実施形態に係る画像処理装置 1 0 0によれば、 監視対象 領域が霧に覆われている状況下や、 夜間においても、 高精度に動体トラッキ ングを実行することができる。 As described above, according to the image processing apparatus 100 according to the present embodiment, moving object tracking is executed with high accuracy even in a situation where the monitored area is covered with fog or at night. be able to.
[0076] 尚、 本実施形態に係る画像処理装置 1 0 0は、 可視光カメラにより生成さ れたカメラ画像、 及びサーマルカメラ 4 0 0により生成されたカメラ画像の 両方を用いてもよい。 又、 第 2 トラッキング情報 0 2を生成する際には、 可 視光カメラにより生成されたカメラ画像、 及びサーマルカメラ 4 0 0により 生成されたカメラ画像の両方を用いてもよいし、 選択的に使用するカメラ画 像を切り替えるようにしてもよい。 The image processing apparatus 100 according to this embodiment may use both the camera image generated by the visible light camera and the camera image generated by the thermal camera 400. Further, when the second tracking information 02 is generated, both the camera image generated by the visible light camera and the camera image generated by the thermal camera 400 may be used, or selectively. The camera images used may be switched.
[0077] (その他の実施形態) [0077] (Other Embodiments)
本発明は、 上記実施形態に限らず、 種々に変形態様が考えられる。 The present invention is not limited to the above-described embodiment, and various modifications can be considered.
[0078] 例えば、 上記実施形態では、 レーザーレーダー 2 0 0の一例として、 丁〇 方式のレーザーレーダーを用いる態様を示したが、 レーザーレーダー 2 0 〇の構成は、 任意である。 例えば、 レーザーレーダー 2 0 0としては、 1\/1 〇 \/\/方式のレーザーレーダー等が用いられてもよい。 [0078] For example, in the above-described embodiment, a mode in which a D-type laser radar is used is shown as an example of the laser radar 200, but the configuration of the laser radar 200 is arbitrary. For example, as the laser radar 200, a 1\/1 〇 \/\/ type laser radar or the like may be used.
[0079] 又、 上記実施形態では、 画像処理装置 1 〇〇の構成の一例として、 第 1画 像取得部 1 〇、 第 2画像取得部 2 0、 第 1解析部 3 0、 第 2解析部 4 0、 デ —夕比較処理部 5 0、 及び、 データ出力部 6 0の機能が一のコンピュータに よって実現されるものとして記載したが、 画像処理装置 1 〇〇が複数のコン ピュータによって実現されてもよいのは勿論である。 又、 当該コンビュータ 〇 2020/175085 17 卩(:171? 2020 /004719 Further, in the above embodiment, as an example of the configuration of the image processing device 100, the first image acquisition unit 100, the second image acquisition unit 20, the first analysis unit 30 and the second analysis unit are used. Although the functions of the data processing unit 40, the data comparison processing unit 50, and the data output unit 60 are described as being realized by one computer, the image processing device 100 is realized by a plurality of computers. Of course, it is okay. Also, the computer 〇 2020/175085 17 卩(:171? 2020/004719
に読み出されるプログラムやデータも、 複数のコンピュータに分散して格納 されてもよい。 The programs and data that are read out may also be distributed and stored in multiple computers.
[0080] 以上、 本発明の具体例を詳細に説明したが、 これらは例示にすぎず、 請求 の範囲を限定するものではない。 請求の範囲に記載の技術には、 以上に例示 した具体例を様々に変形、 変更したものが含まれる。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
[0081] 201 9年 2月 26日出願の特願 201 9-03292 1の日本出願に含 まれる明細書、 図面および要約書の開示内容は、 すべて本願に援用される。 産業上の利用可能性 [0081] The disclosures of the specification, drawings and abstract included in the Japanese application of Japanese Patent Application No. 201-9-032921 filed on Feb. 26, 2010 are incorporated herein by reference in their entirety. Industrial availability
[0082] 本開示に係る画像処理装置によれば、 レーザーレーダーを用いた動体トラ ッキングの精度を向上させることが可能である。 According to the image processing device of the present disclosure, it is possible to improve the accuracy of moving body tracking using a laser radar.
符号の説明 Explanation of symbols
[0083] II 監視システム [0083] II monitoring system
1 00 画像処理装置 1 00 Image processor
1 01 〇 II
Figure imgf000019_0001
1 01 〇 II
Figure imgf000019_0001
1 04 外部記憶装置 1 04 External storage device
1 05 通信インタフェイス 1 05 Communication interface
1 0 第 1画像取得部 1 0 1st image acquisition unit
20 第 2画像取得部 20 Second image acquisition unit
30 第 1解析部 30 1st analysis section
40 第 2解析部 40 2nd Analysis Department
50 データ比較処理部 50 Data comparison processing unit
60 データ出力部 60 Data output section
200 レーザーレーダー 200 laser radar
2 1 0 距離画像生成部 2 1 0 Distance image generator
300 カメラ (可視光カメラ) 300 cameras (visible light camera)
400 サーマルカメラ \¥0 2020/175085 18 卩(:17 2020 /004719 400 thermal camera \¥0 2020/175085 18 卩 (: 17 2020 /004719
〇 1 第 1 トラッキング情報 〇 1 1st tracking information
0 2 第 2 トラッキング情報 0 2 Second tracking information
0 3 確定トラッキング情報 0 3 Confirmed tracking information

Claims

〇 2020/175085 19 卩(:171? 2020 /004719 請求の範囲 〇 2020/175085 19 卩(:171? 2020/004719 Claims
[請求項 1 ] 所定領域を監視するレーザーレーダーから距離画像の画像データを 取得する第 1画像取得部と、 [Claim 1] A first image acquisition unit that acquires image data of a range image from a laser radar that monitors a predetermined area,
前記所定領域を監視するカメラからカメラ画像の画像データを取得 する第 2画像取得部と、 A second image acquisition unit that acquires image data of a camera image from a camera that monitors the predetermined area,
時系列に並ぶ前記距離画像に基づいて、 前記所定領域に存在する動 体の位置をトラッキングした第 1 トラッキング情報を生成する第 1解 析部と、 A first analysis unit that generates first tracking information by tracking the position of a moving object existing in the predetermined area based on the distance images arranged in time series,
時系列に並ぶ前記カメラ画像に基づいて、 前記所定領域に存在する 動体の位置をトラッキングした第 2 トラッキング情報を生成する第 2 解析部と、 A second analysis unit that generates second tracking information by tracking the position of the moving body existing in the predetermined area based on the camera images arranged in time series,
前記第 1 トラッキング情報と前記第 2 トラッキング情報とを時間軸 を揃えて比較し、 前記第 1 トラッキング情報と前記第 2 トラッキング 情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を 確定するデータ比較処理部と、 The first tracking information and the second tracking information are compared on the same time axis, and the identification information and the position of the moving object existing in the predetermined area are determined based on the first tracking information and the second tracking information. A data comparison processing unit that
を備える画像処理装置。 An image processing apparatus including.
[請求項 2] 前記データ比較処理部は、 前記第 2 トラッキング情報に基づいて、 前記第 1 トラッキング情報に含まれる動体の識別情報を補正する、 請求項 1 に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein the data comparison processing unit corrects the moving body identification information included in the first tracking information based on the second tracking information.
[請求項 3] 前記データ比較処理部は、 前記所定領域に存在する動体が所定の状 況に該当する場合、 前記第 1 トラッキング情報と前記第 2 トラッキン グ情報とに基づいて、 前記所定領域に存在する動体の識別情報及び位 置を確定し、 [Claim 3] When the moving object existing in the predetermined area corresponds to a predetermined condition, the data comparison processing unit determines whether the moving object exists in the predetermined area based on the first tracking information and the second tracking information. Confirm the identification information and position of the existing moving body,
前記所定の状況に該当しない場合、 前記第 2 トラッキング情報を参 照することなく前記第 1 トラッキング情報に基づいて、 前記所定領域 に存在する動体の識別情報及び位置を確定する、 If the predetermined situation is not met, the identification information and the position of the moving object existing in the predetermined area are determined based on the first tracking information without referring to the second tracking information,
請求項 1又は 2に記載の画像処理装置。 The image processing apparatus according to claim 1.
[請求項 4] 前記所定の状況は、 前記第 1 トラッキング情報において、 同一の夕 〇 2020/175085 20 卩(:171? 2020 /004719 [Claim 4] The predetermined situation is the same tracking in the first tracking information. 〇 2020/175085 20 boxes (: 171-1? 2020 /004719
イミングで、 一つの識別情報が消滅すると共に、 新たに別個の識別情 報が生成されている状況を含む、 In imming, a situation in which one piece of identification information is lost and a new piece of identification information is newly generated,
請求項 3に記載の画像処理装置。 The image processing apparatus according to claim 3.
[請求項 5] 前記所定の状況は、 前記第 1 トラッキング情報において、 一の動体 が他の動体と交差している状況を含む、 [Claim 5] The predetermined situation includes a situation in which one moving body intersects with another moving body in the first tracking information.
請求項 3又は 4に記載の画像処理装置。 The image processing apparatus according to claim 3 or 4.
[請求項 6] 前記所定の状況は、 前記第 1 トラッキング情報において、 一の動体 が、 一旦、 前記距離画像内から消えた後に、 再度、 同一の識別情報の 動体として出現している状況を含む、 [Claim 6] The predetermined situation includes a situation in which, in the first tracking information, one moving body once appears as a moving body of the same identification information after once disappearing from within the range image. ,
請求項 3乃至 5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 3.
[請求項 7] 前記データ比較処理部は、 前記第 1 トラッキング情報に含まれる動 体の位置と前記第 2 トラッキング情報に含まれる動体の位置との近接 度合い又は大きさの情報に基づいて、 前記第 1 トラッキング情報に含 まれる動体と前記第 2 トラッキング情報に含まれる動体との対応関係 を特定して、 前記所定領域に存在する動体の識別情報及び位置を確定 する、 7. The data comparison processing unit, based on the information on the degree of proximity or size between the position of the moving body included in the first tracking information and the position of the moving body included in the second tracking information, By identifying the correspondence between the moving body included in the first tracking information and the moving body included in the second tracking information, the identification information and the position of the moving body existing in the predetermined area are determined.
請求項 1乃至 6のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1.
[請求項 8] 前記データ比較処理部は、 前記レーザーレーダーの視野情報と前記 カメラの視野情報とに基づいて、 前記第 1 トラッキング情報に含まれ る動体と前記第 2 トラッキング情報に含まれる動体との対応関係を特 定する、 [Claim 8] The data comparison processing unit determines, based on the visual field information of the laser radar and the visual field information of the camera, a moving body included in the first tracking information and a moving body included in the second tracking information. Specify the correspondence of
請求項 7に記載の画像処理装置。 The image processing apparatus according to claim 7.
[請求項 9] 前記第 1解析部及び/又は前記第 2解析部は、 機械学習により学習 済みの識別器モデルを用いて、 前記所定領域に存在する動体の位置を トラッキングする、 9. The first analysis unit and/or the second analysis unit uses a discriminator model that has been learned by machine learning to track the position of a moving object existing in the predetermined region,
請求項 1乃至 8のいずれか一項に記載の画像処理装置。 The image processing device according to claim 1.
[請求項 10] 前記カメラは、 可視カメラである、 [Claim 10] The camera is a visible camera,
請求項 1乃至 9のいずれか一項に記載の画像処理装置。 〇 2020/175085 21 卩(:171? 2020 /004719 The image processing device according to claim 1. 〇 2020/175085 21 卩 (:171? 2020 /004719
[請求項 1 1 ] 前記カメラは、 サーマルカメラである、 [Claim 11] The camera is a thermal camera,
請求項 1乃至 1 〇のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 10.
[請求項 12] 前記カメラは、 可視カメラとサーマルカメラとを含む、 [Claim 12] The camera includes a visible camera and a thermal camera,
請求項 1乃至 1 1のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11.
[請求項 13] 所定領域を監視するレーザーレーダーから距離画像の画像データを 取得し、 [Claim 13] Obtaining image data of a range image from a laser radar that monitors a predetermined area,
前記所定領域を監視するカメラからカメラ画像の画像データを取得 し、 Obtaining image data of a camera image from a camera monitoring the predetermined area,
時系列に並ぶ前記距離画像に基づいて、 前記所定領域に存在する動 体の位置をトラッキングした第 1 トラッキング情報を生成し、 時系列に並ぶ前記カメラ画像に基づいて、 前記所定領域に存在する 動体の位置をトラッキングした第 2 トラッキング情報を生成し、 前記第 1 トラッキング情報と前記第 2 トラッキング情報とを時間軸 を揃えて比較し、 前記第 1 トラッキング情報と前記第 2 トラッキング 情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を 確定する、 Based on the distance images arranged in chronological order, the first tracking information that tracks the position of the moving object existing in the predetermined area is generated, and based on the camera images arranged in chronological order, the moving object existing in the predetermined area is generated. Second tracking information is generated by tracking the position of the first tracking information, and the first tracking information and the second tracking information are compared with each other on the same time axis, and based on the first tracking information and the second tracking information, Confirm the identification information and position of the moving object existing in the predetermined area,
画像処理方法。 Image processing method.
PCT/JP2020/004719 2019-02-26 2020-02-07 Image processing apparatus and image processing method WO2020175085A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021501857A JP7375806B2 (en) 2019-02-26 2020-02-07 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-032921 2019-02-26
JP2019032921 2019-02-26

Publications (1)

Publication Number Publication Date
WO2020175085A1 true WO2020175085A1 (en) 2020-09-03

Family

ID=72239834

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004719 WO2020175085A1 (en) 2019-02-26 2020-02-07 Image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP7375806B2 (en)
WO (1) WO2020175085A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004259A1 (en) * 2020-07-01 2022-01-06 京セラ株式会社 Image processing device and ranging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) * 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
WO2019003688A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Projection indication device, baggage sorting system, and projection indication system
JP2019016098A (en) * 2017-07-05 2019-01-31 キヤノン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) * 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
WO2019003688A1 (en) * 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 Projection indication device, baggage sorting system, and projection indication system
JP2019016098A (en) * 2017-07-05 2019-01-31 キヤノン株式会社 Information processing apparatus, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RAFAEL MUNOZ-SALINAS ET AL.: "People Detection and Tracking using Stereo Vision and Color", CITESEERX.IST.PSU.EDU, April 2005 (2005-04-01), pages 1 - 29, XP055734743, Retrieved from the Internet <URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.104.7232&rep=repl&type=pdf> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004259A1 (en) * 2020-07-01 2022-01-06 京セラ株式会社 Image processing device and ranging device

Also Published As

Publication number Publication date
JP7375806B2 (en) 2023-11-08
JPWO2020175085A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP7004017B2 (en) Object tracking system, object tracking method, program
US9898677B1 (en) Object-level grouping and identification for tracking objects in a video
US10540777B2 (en) Object recognition device and object recognition system
US20200167554A1 (en) Gesture Recognition Method, Apparatus, And Device
CN105760826B (en) Face tracking method and device and intelligent terminal
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP4002919B2 (en) Moving body height discrimination device
JP2016099941A (en) System and program for estimating position of object
JP2016015045A (en) Image recognition device, image recognition method, and program
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
WO2020137193A1 (en) Human detection device and human detection method
CN113646803A (en) Human detection device and human detection method
JP2002366958A (en) Method and device for recognizing image
CN116261742A (en) Information processing apparatus and information processing method
WO2020175085A1 (en) Image processing apparatus and image processing method
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2007200364A (en) Stereo calibration apparatus and stereo image monitoring apparatus using the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20763971

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501857

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20763971

Country of ref document: EP

Kind code of ref document: A1