WO2016167017A1 - 画像処理装置、画像処理方法、および画像処理システム - Google Patents
画像処理装置、画像処理方法、および画像処理システム Download PDFInfo
- Publication number
- WO2016167017A1 WO2016167017A1 PCT/JP2016/054553 JP2016054553W WO2016167017A1 WO 2016167017 A1 WO2016167017 A1 WO 2016167017A1 JP 2016054553 W JP2016054553 W JP 2016054553W WO 2016167017 A1 WO2016167017 A1 WO 2016167017A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- area
- region
- cutout
- cropping
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000001514 detection method Methods 0.000 claims abstract description 126
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 18
- 238000005520 cutting process Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 22
- 238000012544 monitoring process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000009467 reduction Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Definitions
- the present disclosure relates to an image processing device, an image processing method, and an image processing system.
- Patent Document 1 describes a technique in which a moving body is detected from an image photographed by a fisheye lens camera, and a circumscribed square area of each detected moving body is cut out. Further, in Patent Document 2, based on the detection position of the target point included in the target object in the captured image and the distance and direction from the target point to the cut-out position stored in advance, the clip region in the image is recorded. A technique for calculating the center position is described.
- the position of the cutout area cut out from the original image is limited.
- the position of the cutout region is set to the same position even if the object to be cutout is different.
- the present disclosure proposes a new and improved image processing apparatus, image processing method, and image processing system capable of determining the position of a cutout region in a scene where an image is cut out from an original image with a higher degree of freedom. .
- an object detection unit that detects an object from a first image and a region that is positioned in a different relative direction according to a detection condition with the detection position of the object in the first image as a reference.
- An image processing apparatus includes a cutout region determination unit that determines a cutout region.
- an area located in a different relative direction according to a detection condition can be detected based on detection of an object from the first image and a detection position of the object in the first image.
- An image processing method comprising: determining as a cutout region.
- the object detection unit that detects an object from the first image and the detection position of the object in the first image are positioned in different relative directions according to detection conditions.
- An image processing system includes a storage unit that stores a cut-out image.
- the position of the cutout region can be determined with a higher degree of freedom in the scene where the image is cut out from the original image.
- the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
- FIG. 4 is an explanatory diagram showing an example of a reduced image 32 generated by the camera 10.
- FIG. 4 is an explanatory diagram showing an example of a plurality of cropping images 50 generated from an original image 30.
- FIG. FIG. 2 is a functional block diagram showing a configuration of a camera 10 according to the same embodiment.
- 4 is an explanatory diagram showing a relationship between an original image 30 and a cropping area 40.
- FIG. It is the functional block diagram which showed the structure of the monitoring terminal 22 by the embodiment. It is explanatory drawing for demonstrating the subject of the same embodiment.
- 3 is a functional block diagram showing a configuration of an area setting unit 104 according to the same embodiment.
- a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
- a plurality of configurations having substantially the same functional configuration are differentiated as necessary, such as a video cropping unit 106a and a video cropping unit 106b.
- only the same reference numerals are given.
- the video cropping unit 106a and the video cropping unit 106b they are simply referred to as the video cropping unit 106.
- the image processing system includes a camera 10, a storage 20, a monitoring terminal 22, and a communication network 24.
- the camera 10 is an example of an image processing device according to the present disclosure.
- the camera 10 is a device for taking an image of the outside environment.
- the camera 10 can be installed in a place where there is a large amount of traffic of people or vehicles, a place to be monitored, or the like.
- the camera 10 may be installed in a road, a station, an airport, a commercial building, an amusement park, a park, a parking lot, or a restricted area.
- the camera 10 can generate another image using a captured image (hereinafter referred to as an original image), and can transmit the generated image to another device via a communication network 24 described later.
- an original image is an example of the first image in the present disclosure.
- the original image is an image having an upper limit resolution that the camera 10 can capture.
- the original image may be a 4K image.
- the camera 10 generates another image with a small amount of data based on the original image. This is because the original image has a large amount of data, and therefore it is not desirable to transmit the original image itself to another device, for example, because it takes a long time to transmit.
- another example of the image generated by the camera 10 is a reduced image that is an image obtained by simply reducing the resolution of the original image, or a cropped image that is an image obtained by cropping (cutting out) an area to be watched.
- This reduced image may be, for example, a full HD image.
- FIG. 2 is an explanatory diagram showing an example of a reduced image (reduced image 32).
- the reduced image 32 includes all areas included in the original image.
- a region to be watched such as a human face
- the area 40 shown in FIG. 2 is an area corresponding to a cropping area described later.
- the cropping area is set in the frame image, but in FIG. 2, for convenience of explanation, the area corresponding to the cropping area in the reduced image 32 is described as an area 40.
- FIG. 3 is an explanatory diagram showing an example of a plurality of cropping images (a set 52 of cropping images) generated from one original image.
- the cropped image 50 has the same resolution as the original image, but as shown in FIG. 3, each cropped image 50 includes only a partial area of the original image. Therefore, the camera 10 according to the present embodiment basically generates one reduced image and one or more cropped images from one original image. According to this generation example, the user can check the entire view taken by the camera 10, and the user can check the gaze target area with high resolution. The total amount of data can be suppressed as compared with the original image.
- the camera 10 includes a photographing unit 100, a video reduction unit 102, a region setting unit 104, a plurality of video cropping units 106, and a communication unit 108.
- FIG. 4 shows an example in which four video cropping units 106 are provided, but the present invention is not limited to this example, and an arbitrary number of one or more may be provided.
- the imaging unit 100 has a function of acquiring an original image by forming an image of an external image on an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens.
- an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens.
- the video reduction unit 102 generates a reduced image by reducing the original image acquired by the photographing unit 100 to a predetermined size.
- the region setting unit 104 sets a cropping region that is a region from which a cropped image is generated in the original image acquired by the photographing unit 100. For example, the region setting unit 104 sets cropping regions from the original image acquired by the photographing unit 100 by the number of video cropping units 106 provided in the camera 10.
- FIG. 5 is an explanatory diagram showing an example of setting the cropping area by the area setting unit 104.
- the width of the cropping region is described as “crop_width”, and the length of the cropping region is described as “crop_height”.
- the area setting unit 104 detects an object to be detected such as a person 300 from the original image 30 and sets the cropping area 40 based on the detection position 302 of the object.
- the video cropping unit 106 is an example of a cut-out image generation unit in the present disclosure.
- the video cropping unit 106 generates a cropped image by cutting out the cropping region set by the region setting unit 104 from the original image acquired by the photographing unit 100.
- each of the four video cropping units 106 For example, in the example shown in FIG. 3, four cropping images 50 generated by each of the four video cropping units 106 are shown. As illustrated in FIG. 3, for example, the video cropping unit 106 a generates the cropped image 50 a from the cropping region corresponding to the region 40 a illustrated in FIG. 2 set by the region setting unit 104. In addition, the video cropping unit 106b generates a cropped image 50b from the cropping region corresponding to the region 40b illustrated in FIG. 2 set by the region setting unit 104.
- the communication unit 108 transmits and receives various types of information to and from devices connected to the communication network 24 via the communication network 24 described later. For example, the communication unit 108 transmits the reduced image acquired by the video reduction unit 102 and the plurality of cropped images generated by the plurality of video cropping units 106 to the storage 20.
- the storage 20 is a storage device for storing reduced images and cropped images received from the camera 10.
- the storage 20 stores the identification information of the camera 10, the shooting date and time, the received reduced image, and the plurality of received cropped images in association with each other.
- the storage 20 can be installed in, for example, a data center or a monitoring center where a monitoring staff works.
- the monitoring terminal 22 is an information processing terminal for displaying a reduced image and a cropped image generated by the camera 10.
- the monitoring terminal 22 can be installed in a monitoring center, for example.
- FIG. 6 is a functional block diagram showing the configuration of the monitoring terminal 22 according to the present embodiment.
- the monitoring terminal 22 includes a control unit 220, a communication unit 222, a display unit 224, and an input unit 226.
- the control unit 220 generally performs operations of the monitoring terminal 22 using hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) built in the monitoring terminal 22. Control.
- a CPU Central Processing Unit
- RAM Random Access Memory
- ROM Read Only Memory
- the communication unit 222 transmits and receives various types of information to and from devices connected to the communication network 24 via the communication network 24 described later. For example, the communication unit 222 receives a reduced image and a cropped image stored in the storage 20 from the storage 20.
- the communication unit 222 can also directly receive the reduced image generated by the camera 10 and a plurality of cropped images from the camera 10.
- the display unit 224 includes a display such as a liquid crystal display (LCD) or an organic light emitting diode (OLED), for example.
- the display unit 224 displays a monitoring screen including a reduced image or a cropped image received from the storage 20.
- the input unit 226 includes an input device such as a mouse, a keyboard, or a microphone.
- the input unit 226 accepts various inputs from the user to the monitoring terminal 22.
- the communication network 24 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 24.
- the communication network 24 may include a public line network such as a telephone line network, the Internet, a satellite communication network, various local area networks (LANs) including Ethernet (registered trademark), a wide area network (WAN), and the like.
- LANs local area networks
- WAN wide area network
- the communication network 24 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
- the image processing system is not limited to the configuration described above.
- the storage 20 and the monitoring terminal 22 may be configured integrally.
- the image processing system may not include the storage 20 or the monitoring terminal 22.
- the region setting unit 104 sets the cropping region based on the detection position of the object detected from the original image.
- a cropping region setting method for example, a method of setting the cropping region so that the detection position of the object to be detected is at the center of the cropping region can be considered. According to this setting method, the cropped image can be generated so that the object to be detected is easy to see for the user.
- FIG. 7 is an explanatory diagram showing an example in which the cropping area 40 is set with the detection position 302 of the person 300 as the center of the cropping area 40.
- the detection target part is often defined on the face of the person.
- the face area of the person 300 is out of the cropping area 40.
- the camera 10 according to the present embodiment has been created with the above circumstances taken into consideration.
- the camera 10 according to the present embodiment can set the cropping region so that the detection target portion is included in the cropping region according to the type of the object to be detected.
- the region setting unit 104 includes an object detection unit 120, a detection region calculation unit 122, and a cropping region determination unit 124.
- the object detection unit 120 detects an object from the original image based on the set detection condition. For example, when the detection mode for each type of detection target object is set in advance (as a detection condition), the object detection unit 120 selects the type of object corresponding to the set detection mode, for example, the camera 10. The number of video cropping units 106 provided in the original image is detected from the original image.
- the type of the object to be detected may include a person or a car. Further, the types of objects to be detected may further include a ship, an airplane, a motorcycle, a bicycle, or the like.
- the object detection unit 120 detects a human imaging region from the original image.
- the detection mode may be set as a mode for detecting only one type of object, or a mode for detecting a plurality of types of objects, for example, a “human and vehicle detection mode”. May be set as In addition, the setting and changing of the detection mode may be performed at an arbitrary timing by an administrator, for example. Alternatively, a specific detection mode (for example, “person detection mode”) may be set in the camera 10 when the camera 10 is developed.
- a specific detection mode for example, “person detection mode”
- the types of objects may be classified in a plurality of stages such as a large classification and a small classification, and different detection modes may be defined for each classification in the plurality of stages. For example, when the major classification is “automobile”, the minor classification is classified as “truck”, “ordinary car”, etc., and the detection mode is “truck detection mode”, “ordinary car detection mode”, etc. May be defined.
- the detection area calculation unit 122 calculates the area size of the object detected by the object detection unit 120. For example, the detection area calculation unit 122 calculates the area size of the detected object in the original image acquired by the imaging unit 100 as the area size of the object.
- the detection area calculation unit 122 may detect the area of the corresponding object detected in a predetermined number of original images (hereinafter, may be referred to as frame images) such as several or several tens taken immediately before.
- the average size is calculated as the region size of the object. According to this calculation example, even when the size of an object detected between successive frame images varies greatly, the content of the cropped image generated between successive frame images does not change significantly. Can be suppressed.
- the detection region calculation unit 122 applies an IIR (Infinite Impulse Response) filter, least square approximation, or Kalman filter to a predetermined number of past frame images instead of the average value.
- IIR Infinite Impulse Response
- the average value of the object area sizes in the past frame image is smaller than the area size of the object in the current frame image. According to this modification, even when the region size of the object is being enlarged, the calculated region size of the object is not so small (compared to the region size of the object in the current frame image). Can be suppressed.
- the detection area calculation unit 122 may calculate a size obtained by adding a predetermined margin to the area size calculated by the above-described calculation method as the final area size of the object. Is possible. For example, the detection area calculation unit 122 may calculate a size obtained by expanding the area size calculated by the above-described calculation method to a predetermined ratio such as 110% as the final area size of the object. Alternatively, the detection area calculation unit 122 may calculate a size obtained by adding a predetermined length in the vertical and horizontal directions to the calculated area size of the object as the final area size of the object.
- the cropping region determination unit 124 is an example of a cutout region determination unit in the present disclosure. Based on the size of the object calculated by the detection area calculation unit 122, the cropping area determination unit 124 uses the detection position of the object in the original image as a reference and determines an area located in a relative direction corresponding to the type of the object. Determine as cropping area. For example, when the size of the object calculated by the detection area calculation unit 122 is larger than the size of the cropping area, the cropping area determination unit 124 sets the detection position of the object in the original image in the direction corresponding to the type of the object.
- the camera 10 stores a database that stores the correspondence relationship between the type of object, the moving direction (correction direction) of the cropping region, and the calculation formula of the moving amount, and the cropping region determination unit 124 The correction position can be calculated using this database.
- the cropping area determination unit 124 performs the cropping so that the detection position of the object in the original image is the center of the cropping area. Determine the area.
- FIG. 9 is an explanatory diagram showing an example of determining the cropping area when the type of object to be detected is a person.
- a cropping area 44 (hereinafter referred to as a standard cropping area 44) determined so that the person detection position 302 is centered is indicated by a broken-line rectangle.
- the cropping region 40 finally determined by the cropping region determination unit 124 is indicated by a solid line rectangle.
- the cropping area determination unit 124 determines the cropping area 40 by moving the standard cropping area 44 in the original image 30 relatively upward.
- the cropping area determination unit 124 first calculates the difference between the height of the upper end of the standard cropping area 44 and the height of the top of the detected person 300.
- the cropping area determination unit 124 calculates a position where the person detection position 302 is moved upward by the calculated difference or more. Then, the cropping area determination unit 124 determines the cropping area 40 so that the calculated position becomes the center of the cropping area 40.
- the detection target part is often designated as a face.
- the cropping area can be determined so that the face of the person to be detected is included in the cropping area.
- FIG. 10 is an explanatory diagram showing an example of a cropped image (cropped image 50) generated from the cropping area 40 shown in FIG. 9 by the video cropping unit 106. As illustrated in FIG. 10, the cropping image 50 is generated by the cropping region 40 being cut out from the original image 30 by the video cropping unit 106.
- the cropping area determination unit 124 sets the standard cropping area 44 in the original image 30 as a relative value.
- the cropping area 40 is determined by moving it downward.
- the cropping area determination unit 124 first calculates the difference between the height of the lower end of the standard cropping area 44 and the height of the lower end of the detected tire of the track 300.
- the cropping area determination unit 124 calculates a position where the track detection position 302 is moved downward by the calculated difference.
- the cropping area determination unit 124 determines the cropping area 40 so that the calculated position becomes the center of the cropping area 40.
- the detection target part is often designated as a license plate.
- the cropping area can be determined so that the license plate of the track to be detected is included in the cropping area.
- the cropping area determination unit 124 can determine, as a cropping area, an area obtained by enlarging the size of the standard cropping area in the direction corresponding to the type of the object on the basis of the detection position of the detection target object. It is. For example, in the example illustrated in FIG. 9, the cropping area determination unit 124 expands the standard cropping area 44 upward by a difference greater than the difference between the height of the upper end of the standard cropping area 44 and the height of the top of the detected person 300. The (rectangular) area may be determined as the cropping area.
- FIG. 12 is a flowchart showing an operation example according to the present embodiment. As shown in FIG. 12, first, the photographing unit 100 of the camera 10 acquires an original image by photographing an external video when a predetermined timing arrives (S101).
- the video reduction unit 102 generates a reduced image by reducing the original image acquired in S101 to a predetermined size (S103).
- the camera 10 repeats “cropping image generation processing” to be described later for the number of video cropping units 106, that is, four times (S105 to S111).
- the communication unit 108 transmits the reduced image generated in S103 and the four cropped images generated in S107 to the storage 20 (S113).
- the object detection unit 120 of the camera 10 detects an object to be detected from the original image acquired in S101 based on a preset detection mode (S151). .
- the detection area calculation unit 122 calculates the area size of the object detected in S151. Then, the cropping area determination unit 124 determines whether or not the calculated area size is larger than the size of the cropping area (S153).
- the cropping area determination unit 124 determines the standard cropping area as the cropping area. That is, the cropping area determination unit 124 determines the cropping area so that the detection position of the object detected in S151 is the center of the cropping area (S163). And the camera 10 performs operation
- the cropping area determination unit 124 determines whether or not the type of the object corresponding to the set detection mode is a person. Is determined (S155). When the type of the object to be detected is a person (S155: Yes), the cropping area determination unit 124 determines the cropping area by moving the standard cropping area upward in the original image acquired in S101. (S157). And the camera 10 performs operation
- the cropping area determination unit 124 selects the standard cropping area in the original image acquired in S101.
- the cropping area is determined by moving downward (S161). And the camera 10 performs operation
- the cropping area determination unit 124 performs the above-described operation of S163.
- the video cropping unit 106 generates a cropped image by cutting out the cropping area determined in S157, S161, or S163 from the original image acquired in S101 (S171).
- the camera 10 detects an object from a photographed original image, and detects an object in the original image. Using the position as a reference, an area located in a different relative direction depending on the detection condition is determined as a cropping area. For this reason, for example, even if the detection position of the object is the same, the position of the cutout region can be changed according to the detection condition.
- the camera 10 has a correction position obtained by moving the detection position of the object in the original image by a direction and a movement amount corresponding to the type of the object.
- the cropping area is determined so as to be the center of the cropping area. For this reason, even if the region size of the object to be detected is larger than the size of the cropping region, the cropping region can be set so that the detection target portion of the object is included in the cropping region. As a result, it is possible to improve the visibility of a detection target portion (for example, a human face) in the cropped image.
- the cropping area determination method by the cropping area determination unit 124 is a simple method, the camera 10 can generate a cropped image in real time.
- the cropping region 40 is determined so that a part of the end of the cropping region 40 matches a part of the end of the original image 30.
- the object to be detected cannot always be detected reliably, and detection may fail. If the detection fails, for example, as shown in FIG. 16, for example, the position of the object (person) in the original image 30 and the center position 410 of the cropping area 40 are usually different.
- Video cropping unit 106 When a part of the cropping area determined by the cropping area determination unit 124 deviates from the original image, the video cropping unit 106 according to this application example displays the cropped image so as to include a display indicating the area deviated from the original image. Generate. For example, in the above case, the video cropping unit 106 fills a region outside the original image with a predetermined color or a predetermined pattern in the cropped image. In the above case, the video cropping unit 106 arranges a predetermined character string in an area outside the original image. According to these generation examples, in the cropped image, an area outside the original image can be clearly shown to the user.
- FIG. 17 is an explanatory diagram illustrating an example of the cropping region 40 determined by the cropping region determination unit 124 when the person 300 is located near the edge of the original image 30.
- the cropping region determination unit 124 sets the cropping region 40 so that the person detection position 302 is at the center of the cropping region 40. decide.
- a part of the area 402 in the cropping area 40 protrudes from the original image 30.
- FIG. 18 is an explanatory diagram showing an example of a cropping image (cropping image 50) generated by the video cropping unit 106 when the cropping region 40 is determined as shown in FIG.
- the video cropping unit 106 generates the cropped image 50 so as to include the region 500 cut out from the original image 30 and the protruding region 502 that is a region protruding from the original image 30.
- the cut-out area 500 is the same as the area 400 included in the original image 30 in the cropping area 40 shown in FIG.
- the video cropping unit 106 fills the protruding area 502 with a predetermined color, for example, and clearly indicates that it is an protruding area such as “Out of light”.
- the column is arranged in the protruding area 502.
- the cropping image 50 can clearly indicate that the detection target object has been successfully detected and that the object is located near the edge in the original image. Further, it can be clearly shown which end in the original image the object is located near (for example, in the example shown in FIG. 18, the object is located near the right end of the original image).
- FIG. 19 is a flowchart showing a part of the operation of “cropping image generation processing” according to this application example.
- the operations of S101 to S163 according to the present embodiment shown in FIGS. 12 to 13 are the same in this application example.
- the operation of S201 shown in FIG. 19 is the same as that of S171 according to the present embodiment shown in FIG. Hereinafter, operations after S201 will be described.
- the video cropping unit 106 determines whether a part of the cropping area determined in S157, S161, or S163 protrudes from the original image acquired in S101. (S203). If a part of the cropping area does not protrude from the original image (S203: No), the camera 10 ends the “cropping image generation process”.
- the camera 10 when a part of the determined cropping area is out of the original image, in the cropped image, the area out of the original image.
- a cropped image is generated so as to include a display indicating. For this reason, the user can determine whether the detection of the object has failed or whether the object to be detected has been successfully detected and the object is located near the edge in the original image. Can be done just by looking at the cropped image.
- the user can identify which edge the object is located by simply looking at the cropped image. .
- a separately provided server can communicate with the camera 10 via, for example, the communication network 24, and this server replaces the camera 10 with the video reduction unit 102 and the region setting unit 104 described above.
- the image processing apparatus may be a server. Further, the server and the storage 20 may be configured integrally.
- the camera 10 can identify the type of the object included in the photographed original image, and can dynamically set the detection mode corresponding to the identified type.
- the camera 10 determines that the object is a person, for example, by calculating the aspect ratio of the detected object area. It is also possible to identify and then dynamically set a detection mode (eg “person detection mode”) corresponding to the identification result.
- An object detection unit for detecting an object from the first image A cutout region determination unit that determines, as a cutout region, a region located in a different relative direction according to a detection condition with the detection position of the object in the first image as a reference,
- An image processing apparatus comprising: (2) The image processing apparatus according to (1), wherein the detection condition is associated with a type of an object to be detected. (3) The type of the object to be detected is the image processing apparatus according to (2), including a person or a vehicle. (4) When the object to be detected is a person, the cutout region determination unit determines a region positioned relatively upward as the cutout region on the basis of the detection position of the person in the first image.
- the image processing apparatus determines a region positioned relatively downward as the cutout region on the basis of the detection position of the vehicle in the first image.
- the image processing apparatus according to (3) or (4).
- the cut-out area determination unit is configured so that the position where the detection position of the object in the first image is moved in a different relative direction according to the type of the object is the center of the cut-out area.
- the image processing apparatus according to any one of (3) to (5), wherein: (7) The size of the cutout area is determined in advance,
- the image processing apparatus further includes a detection region calculation unit that calculates a region size of the detected object,
- the cutout area determination unit is configured to detect the object to be detected with reference to the detection position of the object in the first image when the area size calculated by the detection area calculation unit is larger than the size of the cutout area.
- the image processing apparatus according to any one of (3) to (6), wherein an area located in a different relative direction depending on the type of the image is determined as the cutout area.
- the first image is a frame image of a moving image;
- the detection area calculation unit calculates the area size of the object in the first image based on the area size of the object calculated in a plurality of frame images before the first image.
- the image processing apparatus according to 7).
- the image processing device further includes a cutout image generation unit that generates a cutout image by cutting out the cutout region determined by the cutout region determination unit from the first image.
- the image processing apparatus according to any one of claims.
- the cutout image generation unit includes a display indicating a region that is out of the first image when a part of the cutout region determined by the cutout region determination unit is out of the first image.
- the image processing apparatus according to (9), wherein the cutout image is generated.
- An image processing method comprising: (14) An object detection unit for detecting an object from the first image; A cutout region determination unit that determines, as a cutout region, a region located in a different relative direction according to a detection condition with the detection position of the object in the first image as a reference, A cutout image generation unit that generates a cutout image by cutting out the cutout region determined by the cutout region determination unit from the first image; A storage unit for storing the generated cutout image; An image processing system comprising:
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
1.画像処理システムの基本構成
2.実施形態の詳細な説明
3.応用例
4.変形例
<1-1.基本構成>
本開示は、一例として「2.実施形態の詳細な説明」において詳細に説明するように、多様な形態で実施され得る。最初に、本実施形態による画像処理システムの基本構成について、図1を参照して説明する。
カメラ10は、本開示における画像処理装置の一例である。カメラ10は、外環境の画像を撮影するための装置である。このカメラ10は、人や車の交通量が多い場所や、監視対象の場所などに設置され得る。例えば、カメラ10は、道路、駅、空港、商業用ビルディング、アミューズメントパーク、公園、駐車場、または立ち入り禁止区域などに設置されてもよい。
撮影部100は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させることにより、オリジナル画像を取得する機能を有する。
映像縮小部102は、撮影部100により取得されたオリジナル画像を所定のサイズに縮小することにより縮小画像を生成する。
領域設定部104は、撮影部100により取得されたオリジナル画像において、クロッピング画像の生成元となる領域であるクロッピング領域を設定する。例えば、領域設定部104は、撮影部100により取得されたオリジナル画像から、カメラ10に設けられている映像クロッピング部106の個数だけクロッピング領域を設定する。
映像クロッピング部106は、本開示における切り出し画像生成部の一例である。映像クロッピング部106は、領域設定部104により設定されたクロッピング領域を、撮影部100により取得されたオリジナル画像から切り出すことによりクロッピング画像を生成する。
通信部108は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部108は、映像縮小部102により取得された縮小画像、および、複数の映像クロッピング部106により生成された複数のクロッピング画像をストレージ20へ送信する。
ストレージ20は、カメラ10から受信される縮小画像およびクロッピング画像を記憶するための記憶装置である。例えば、ストレージ20は、カメラ10の識別情報、撮影日時、受信された縮小画像、および受信された複数のクロッピング画像を対応づけて記憶する。なお、ストレージ20は、例えばデータセンタや、監視員が勤務する監視センタなどに設置され得る。
監視端末22は、カメラ10により生成された縮小画像およびクロッピング画像を表示するための情報処理端末である。この監視端末22は、例えば監視センタに設置され得る。
制御部220は、監視端末22に内蔵されるCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)などのハードウェアを用いて、監視端末22の動作を全般的に制御する。
通信部222は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部222は、ストレージ20に格納されている縮小画像およびクロッピング画像をストレージ20から受信する。
表示部224は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などのディスプレイにより構成される。この表示部224は、例えば、ストレージ20から受信された縮小画像またはクロッピング画像を含む監視画面などを表示する。
入力部226は、例えばマウス、キーボード、または、マイクロフォンなどの入力装置を含む。この入力部226は、監視端末22に対するユーザによる各種の入力を受け付ける。
通信網24は、通信網24に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網24は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網24は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
ところで、上述したように、領域設定部104は、オリジナル画像の中から検出された物体の検出位置に基づいてクロッピング領域を設定する。
<2-1.構成>
本実施形態によるカメラ10の構成の特徴は、特に領域設定部104の構成に関する。以下では、図8を参照して、本実施形態による領域設定部104の構成についてさらに詳細に説明する。
物体検出部120は、設定されている検出条件に基づいてオリジナル画像から物体を検出する。例えば、検出対象の物体の種類ごとの検出モードが(検出条件として)予め設定されている場合には、物体検出部120は、設定されている検出モードに対応する種類の物体を、例えばカメラ10に設けられている映像クロッピング部106の個数だけオリジナル画像から検出する。ここで、検出対象の物体の種類は、人または自動車を含み得る。また、検出対象の物体の種類は、船、飛行機、バイク、または、自転車などをさらに含んでもよい。
検出領域算出部122は、物体検出部120により検出された物体の領域サイズを算出する。例えば、検出領域算出部122は、撮影部100により取得されたオリジナル画像における、検出された物体の領域サイズを当該物体の領域サイズとして算出する。
なお、変形例として、検出領域算出部122は、過去の所定の数のフレーム画像に対して、平均値の代わりに、IIR(Infinite Impulse Response)フィルタ、最小二乗近似、または、カルマンフィルタを適用することにより、当該物体の領域サイズを算出することも可能である。
また、別の変形例として、検出領域算出部122は、上述した算出方法による算出後の領域サイズに対して所定のマージンを加算したサイズを、当該物体の最終的な領域サイズとして算出することも可能である。例えば、検出領域算出部122は、上述した算出方法による算出後の領域サイズを例えば110%などの所定の割合に拡大したサイズを当該物体の最終的な領域サイズとして算出してもよい。または、検出領域算出部122は、算出後の物体の領域サイズに対して縦横それぞれに所定の長さを加算したサイズを当該物体の最終的な領域サイズとして算出してもよい。
クロッピング領域決定部124は、本開示における切り出し領域決定部の一例である。クロッピング領域決定部124は、検出領域算出部122により算出された物体のサイズに基づいて、オリジナル画像における物体の検出位置を基準として、当該物体の種類に対応する相対的な方向に位置する領域をクロッピング領域として決定する。例えば、検出領域算出部122により算出された物体のサイズがクロッピング領域のサイズよりも大きい場合には、クロッピング領域決定部124は、オリジナル画像における物体の検出位置を、当該物体の種類に対応する方向に所定の移動量だけ移動した位置(補正位置)を算出し、そして、算出した補正位置がクロッピング領域の中心となるようにクロッピング領域を決定する。なお、例えば、物体の種類、クロッピング領域の移動方向(補正方向)、および移動量の算出式の対応関係が格納されているデータベースをカメラ10が記憶しており、そして、クロッピング領域決定部124は、このデータベースを用いて補正位置を算出することが可能である。
例えば、図9に示したように、検出対象の物体の種類が「人」であり、かつ、検出された人物300の領域サイズがクロッピング領域のサイズよりも大きい場合には、クロッピング領域決定部124は、オリジナル画像30における標準クロッピング領域44を相対的に上方向に移動させることにより、クロッピング領域40を決定する。一例として、上記の場合には、クロッピング領域決定部124は、まず、標準クロッピング領域44の上端の高さと、検出された人物300の頭頂の高さとの差分を算出する。次に、クロッピング領域決定部124は、算出した差分以上、人物の検出位置302を上方向に移動した位置を算出する。そして、クロッピング領域決定部124は、算出された位置がクロッピング領域40の中心となるようにクロッピング領域40を決定する。
また、図11に示したように、検出対象の物体の種類が例えばトラックなどの「大型の自動車」である場合には、クロッピング領域決定部124は、オリジナル画像30における標準クロッピング領域44を相対的に下方向に移動させることにより、クロッピング領域40を決定する。一例として、上記の場合には、クロッピング領域決定部124は、まず、標準クロッピング領域44の下端の高さと、検出されたトラック300のタイヤの下端の高さとの差分を算出する。次に、クロッピング領域決定部124は、算出した差分だけトラックの検出位置302を下方向に移動した位置を算出する。そして、クロッピング領域決定部124は、算出された位置がクロッピング領域40の中心となるようにクロッピング領域40を決定する。
なお、上記の説明では、クロッピング領域決定部124が、検出対象の物体の種類に対応する方向に標準クロッピング領域の位置を移動させることによりクロッピング領域を決定する例について説明したが、かかる例に限定されない。
以上、本実施形態による構成について説明した。続いて、本実施形態による動作について、図12~図14を参照して説明する。なお、ここでは、カメラ10が映像クロッピング部106を四個有しており、そして、一枚のオリジナル画像から一枚の縮小画像および四枚のクロッピング画像を生成する場面における動作例について説明する。
図12は、本実施形態による動作例を示したフローチャートである。図12に示したように、まず、カメラ10の撮影部100は、所定のタイミングが到来したら、外部の映像を撮影することによりオリジナル画像を取得する(S101)。
ここで、図13~図14を参照して、S107における「クロッピング画像生成処理」の動作について詳細に説明する。図13に示したように、まず、カメラ10の物体検出部120は、予め設定されている検出モードに基づいて、S101で取得されたオリジナル画像の中から検出対象の物体を検出する(S151)。
[2-3-1.効果1]
以上、例えば図4、図8、図12~図14などを参照して説明したように、本実施形態によるカメラ10は、撮影したオリジナル画像から物体を検出し、そして、オリジナル画像における物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域をクロッピング領域として決定する。このため、例えば物体の検出位置が同じであっても、検出条件に応じて切り出し領域の位置を変化させることができる。
また、クロッピング領域決定部124によるクロッピング領域の決定方法は簡易な方法であるので、カメラ10は、クロッピング画像の生成をリアルタイムに行うことができる。
また、本実施形態によれば、カメラ10単体で縮小画像およびクロッピング画像を生成することが可能である。このため、縮小画像およびクロッピング画像を生成するための例えばサーバなどの他の装置に、カメラ10はオリジナル画像を送信する必要がないので、通信量を軽減することができる。
以上、本実施形態について説明した。続いて、本実施形態の応用例について説明する。なお、本応用例による画像処理システムの構成は、図1に示した本実施形態と同様である。まず、本応用例を創作するに至った背景について説明する。
次に、本応用例によるカメラ10の構成について説明する。なお、本応用例によるカメラ10に含まれる構成要素は、図4および図6に示した本実施形態と同様である。以下では、上述した実施形態と異なる機能を有する構成要素についてのみ説明を行う。
本応用例による映像クロッピング部106は、クロッピング領域決定部124により決定されたクロッピング領域の一部がオリジナル画像から外れた場合には、オリジナル画像から外れた領域を示す表示を含むようにクロッピング画像を生成する。例えば、映像クロッピング部106は、上記の場合には、クロッピング画像において、オリジナル画像から外れた領域を所定の色もしくは所定の模様で塗りつぶす。また、映像クロッピング部106は、上記の場合には、オリジナル画像から外れた領域内に所定の文字列を配置する。これらの生成例によれば、クロッピング画像において、オリジナル画像から外れた領域をユーザに明示することができる。
以上、本応用例による構成について説明した。続いて、本応用例による動作について、図19を参照して説明する。図19は、本応用例による「クロッピング画像生成処理」の動作の一部を示したフローチャートである。なお、図12~図13に示した、本実施形態によるS101~S163の動作に関しては、本応用例でも同様である。また、図19に示したS201の動作は、図14に示した本実施形態によるS171と同様である。以下では、S201より後の動作について説明を行う。
以上、例えば図19などを参照して説明したように、本応用例によるカメラ10は、決定したクロッピング領域の一部がオリジナル画像から外れた場合には、クロッピング画像において、オリジナル画像から外れた領域を示す表示を含むようにクロッピング画像を生成する。このため、物体の検出に失敗しているのか、あるいは、検出対象の物体の検出に成功しており、かつ、当該物体がオリジナル画像内の端の近くに位置しているのかの判別を、ユーザはクロッピング画像を見るだけで行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
上述した実施形態では、本開示による画像処理装置がカメラ10である例について説明したが、かかる例に限定されない。例えば、監視端末22(の制御部220)が、カメラ10の代わりに、上述した映像縮小部102、領域設定部104、および、複数の映像クロッピング部106の全てを有する場合には、本開示による画像処理装置は、監視端末22であってもよい。
また、上述した実施形態では、検出モードが予め設定されている例を中心に説明したが、かかる例に限定されない。例えば、カメラ10は、撮影したオリジナル画像に含まれる物体の種類を識別し、そして、識別した種類に対応する検出モードを動的に設定することも可能である。一例として、撮影されたオリジナル画像内に含まれる物体の種類が人だけである場合には、カメラ10は、例えば検出された物体領域の縦横比を算出することなどにより物体が人であることを識別し、そして、識別結果に対応する検出モード(例えば「人検出モード」)を動的に設定することも可能である。
また、上述した実施形態によれば、例えばCPU、ROM、およびRAMなどのハードウェアを、上述した映像縮小部102、領域設定部104、および、映像クロッピング部106と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
(1)
第1の画像から物体を検出する物体検出部と、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定する切り出し領域決定部と、
を備える、画像処理装置。
(2)
前記検出条件は、検出対象の物体の種類に対応づけられている、前記(1)に記載の画像処理装置。
(3)
前記検出対象の物体の種類は、人または車両を含む、前記(2)に記載の画像処理装置。
(4)
前記検出対象の物体が人である場合には、前記切り出し領域決定部は、前記第1の画像における人の検出位置を基準として、相対的に上方向に位置する領域を前記切り出し領域として決定する、前記(3)に記載の画像処理装置。
(5)
前記検出対象の物体が車両である場合には、前記切り出し領域決定部は、前記第1の画像における車両の検出位置を基準として、相対的に下方向に位置する領域を前記切り出し領域として決定する、前記(3)または(4)に記載の画像処理装置。
(6)
前記切り出し領域決定部は、前記第1の画像における前記物体の検出位置を、前記物体の種類に応じて異なる相対的な方向に移動させた位置が前記切り出し領域の中心となるように前記切り出し領域を決定する、前記(3)~(5)のいずれか一項に記載の画像処理装置。
(7)
前記切り出し領域のサイズは、予め定められており、
前記画像処理装置は、検出された物体の領域サイズを算出する検出領域算出部をさらに備え、
前記切り出し領域決定部は、前記検出領域算出部により算出された領域サイズが前記切り出し領域のサイズよりも大きい場合に、前記第1の画像における前記物体の検出位置を基準として、前記検出対象の物体の種類に応じて異なる相対的な方向に位置する領域を前記切り出し領域として決定する、前記(3)~(6)のいずれか一項に記載の画像処理装置。
(8)
前記第1の画像は、動画のフレーム画像であり、
前記検出領域算出部は、前記第1の画像よりも前の複数のフレーム画像において算出された前記物体の領域サイズに基づいて、前記第1の画像における前記物体の領域サイズを算出する、前記(7)に記載の画像処理装置。
(9)
前記画像処理装置は、前記切り出し領域決定部により決定された前記切り出し領域を前記第1の画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、前記(1)~(8)のいずれか一項に記載の画像処理装置。
(10)
前記切り出し画像生成部は、前記切り出し領域決定部により決定された前記切り出し領域の一部が前記第1の画像から外れた場合には、前記第1の画像から外れた領域を示す表示を含むように前記切り出し画像を生成する、前記(9)に記載の画像処理装置。
(11)
前記第1の画像から外れた領域を示す表示は、前記第1の画像から外れた領域が所定の色もしくは所定の模様で塗りつぶされることを含む、前記(10)に記載の画像処理装置。
(12)
前記第1の画像から外れた領域を示す表示は、前記第1の画像から外れた領域内に所定の文字列が配置されることを含む、前記(10)または(11)に記載の画像処理装置。
(13)
第1の画像から物体を検出することと、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定することと、
を備える、画像処理方法。
(14)
第1の画像から物体を検出する物体検出部と、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記切り出し領域を前記第1の画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備える、画像処理システム。
20 ストレージ
22 監視端末
24 通信網
100 撮影部
102 映像縮小部
104 領域設定部
106 映像クロッピング部
108 通信部
120 物体検出部
122 検出領域算出部
124 クロッピング領域決定部
220 制御部
222 通信部
224 表示部
226 入力部
Claims (14)
- 第1の画像から物体を検出する物体検出部と、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定する切り出し領域決定部と、
を備える、画像処理装置。 - 前記検出条件は、検出対象の物体の種類に対応づけられている、請求項1に記載の画像処理装置。
- 前記検出対象の物体の種類は、人または車両を含む、請求項2に記載の画像処理装置。
- 前記検出対象の物体が人である場合には、前記切り出し領域決定部は、前記第1の画像における人の検出位置を基準として、相対的に上方向に位置する領域を前記切り出し領域として決定する、請求項3に記載の画像処理装置。
- 前記検出対象の物体が車両である場合には、前記切り出し領域決定部は、前記第1の画像における車両の検出位置を基準として、相対的に下方向に位置する領域を前記切り出し領域として決定する、請求項3に記載の画像処理装置。
- 前記切り出し領域決定部は、前記第1の画像における前記物体の検出位置を、前記物体の種類に応じて異なる相対的な方向に移動させた位置が前記切り出し領域の中心となるように前記切り出し領域を決定する、請求項3に記載の画像処理装置。
- 前記切り出し領域のサイズは、予め定められており、
前記画像処理装置は、検出された物体の領域サイズを算出する検出領域算出部をさらに備え、
前記切り出し領域決定部は、前記検出領域算出部により算出された領域サイズが前記切り出し領域のサイズよりも大きい場合に、前記第1の画像における前記物体の検出位置を基準として、前記検出対象の物体の種類に応じて異なる相対的な方向に位置する領域を前記切り出し領域として決定する、請求項3に記載の画像処理装置。 - 前記第1の画像は、動画のフレーム画像であり、
前記検出領域算出部は、前記第1の画像よりも前の複数のフレーム画像において算出された前記物体の領域サイズに基づいて、前記第1の画像における前記物体の領域サイズを算出する、請求項7に記載の画像処理装置。 - 前記画像処理装置は、前記切り出し領域決定部により決定された前記切り出し領域を前記第1の画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、請求項1に記載の画像処理装置。
- 前記切り出し画像生成部は、前記切り出し領域決定部により決定された前記切り出し領域の一部が前記第1の画像から外れた場合には、前記第1の画像から外れた領域を示す表示を含むように前記切り出し画像を生成する、請求項9に記載の画像処理装置。
- 前記第1の画像から外れた領域を示す表示は、前記第1の画像から外れた領域が所定の色もしくは所定の模様で塗りつぶされることを含む、請求項10に記載の画像処理装置。
- 前記第1の画像から外れた領域を示す表示は、前記第1の画像から外れた領域内に所定の文字列が配置されることを含む、請求項10に記載の画像処理装置。
- 第1の画像から物体を検出することと、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定することと、
を備える、画像処理方法。 - 第1の画像から物体を検出する物体検出部と、
前記第1の画像における前記物体の検出位置を基準として、検出条件に応じて異なる相対的な方向に位置する領域を切り出し領域として決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記切り出し領域を前記第1の画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備える、画像処理システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201680019671.XA CN107431762B (zh) | 2015-04-14 | 2016-02-17 | 图像处理设备、图像处理方法以及图像处理系统 |
EP16779809.9A EP3285477B1 (en) | 2015-04-14 | 2016-02-17 | Image processing device, image processing method, and image processing system |
JP2017512215A JP6724904B2 (ja) | 2015-04-14 | 2016-02-17 | 画像処理装置、画像処理方法、および画像処理システム |
US15/559,979 US11263769B2 (en) | 2015-04-14 | 2016-02-17 | Image processing device, image processing method, and image processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015082273 | 2015-04-14 | ||
JP2015-082273 | 2015-04-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016167017A1 true WO2016167017A1 (ja) | 2016-10-20 |
Family
ID=57126149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/054553 WO2016167017A1 (ja) | 2015-04-14 | 2016-02-17 | 画像処理装置、画像処理方法、および画像処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11263769B2 (ja) |
EP (1) | EP3285477B1 (ja) |
JP (1) | JP6724904B2 (ja) |
CN (1) | CN107431762B (ja) |
WO (1) | WO2016167017A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019519015A (ja) * | 2016-03-31 | 2019-07-04 | クアルコム,インコーポレイテッド | 動的で確率的なワークの削減を伴う幾何学的なワークスケジューリング |
JPWO2018155683A1 (ja) * | 2017-02-24 | 2019-12-26 | 国立研究開発法人宇宙航空研究開発機構 | 飛翔体、及びプログラム |
US11823715B2 (en) | 2019-03-20 | 2023-11-21 | Sony Group Corporation | Image processing device and image processing method |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6693509B2 (ja) * | 2015-04-14 | 2020-05-13 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
JP6572500B1 (ja) * | 2018-03-14 | 2019-09-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 画像処理装置、撮像装置、移動体、画像処理方法、及びプログラム |
JP7216487B2 (ja) * | 2018-06-21 | 2023-02-01 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
EP3852357A4 (en) * | 2018-09-12 | 2021-10-13 | Sony Group Corporation | IMAGE PROCESSING DEVICE, PROGRAM, AND IMAGE PROCESSING METHOD |
JP7491297B2 (ja) * | 2019-02-21 | 2024-05-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
CN112136311B (zh) * | 2019-10-22 | 2022-07-12 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、设备、成像系统及存储介质 |
CN112954267B (zh) * | 2019-12-11 | 2023-02-07 | 杭州海康威视数字技术股份有限公司 | 一种用于生成报警视频的摄像机 |
JP2021180379A (ja) * | 2020-05-12 | 2021-11-18 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
WO2023286367A1 (ja) * | 2021-07-15 | 2023-01-19 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289516A (ja) * | 2003-03-24 | 2004-10-14 | Konica Minolta Holdings Inc | 画像処理方法、画像処理装置、画像処理プログラム及び画像読取装置 |
JP2005175684A (ja) * | 2003-12-09 | 2005-06-30 | Nikon Corp | デジタルカメラおよびデジタルカメラの画像取得方法 |
JP2006345134A (ja) * | 2005-06-08 | 2006-12-21 | Tomy Co Ltd | デジタルカメラ |
JP2008288797A (ja) * | 2007-05-16 | 2008-11-27 | Nikon Corp | 撮像装置 |
JP2010103972A (ja) * | 2008-09-25 | 2010-05-06 | Sanyo Electric Co Ltd | 画像処理装置及び電子機器 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4516665B2 (ja) | 2000-05-19 | 2010-08-04 | パナソニック株式会社 | 監視装置 |
JP2005012764A (ja) * | 2003-05-22 | 2005-01-13 | Casio Comput Co Ltd | データ通信装置、画像送信方法および画像送信プログラム |
JP4181923B2 (ja) * | 2003-05-29 | 2008-11-19 | キヤノン株式会社 | 撮像装置および撮像装置の制御方法 |
US7171058B2 (en) * | 2003-07-31 | 2007-01-30 | Eastman Kodak Company | Method and computer program product for producing an image of a desired aspect ratio |
JP2005184266A (ja) | 2003-12-17 | 2005-07-07 | Olympus Corp | 撮像装置 |
US20060072847A1 (en) * | 2004-10-01 | 2006-04-06 | Microsoft Corporation | System for automatic image cropping based on image saliency |
JP5150943B2 (ja) * | 2006-12-18 | 2013-02-27 | 富士フイルム株式会社 | 監視システム、監視方法、及びプログラム |
EP2100453B1 (en) * | 2006-12-18 | 2013-07-03 | FUJIFILM Corporation | Monitoring system, monitoring method and program |
JP5033412B2 (ja) * | 2006-12-25 | 2012-09-26 | 富士フイルム株式会社 | 監視システム、監視方法、及びプログラム |
JP2009089356A (ja) * | 2007-09-10 | 2009-04-23 | Fujifilm Corp | 画像処理装置、画像処理方法、およびプログラム |
JP5111088B2 (ja) * | 2007-12-14 | 2012-12-26 | 三洋電機株式会社 | 撮像装置及び画像再生装置 |
US20100074557A1 (en) | 2008-09-25 | 2010-03-25 | Sanyo Electric Co., Ltd. | Image Processing Device And Electronic Appliance |
JP5237055B2 (ja) * | 2008-11-07 | 2013-07-17 | キヤノン株式会社 | 映像送信装置、映像送信方法、およびコンピュータプログラム |
JP5302740B2 (ja) * | 2009-04-08 | 2013-10-02 | オリンパスイメージング株式会社 | 画像表示装置 |
US8922661B2 (en) * | 2009-11-30 | 2014-12-30 | Hewlett-Packard Development Company, L.P. | Stabilizing a subject of interest in captured video |
JP5427577B2 (ja) * | 2009-12-04 | 2014-02-26 | パナソニック株式会社 | 表示制御装置及び表示画像形成方法 |
TWI430185B (zh) * | 2010-06-17 | 2014-03-11 | Inst Information Industry | 臉部表情辨識系統及其辨識方法及其電腦程式產品 |
JP2012205037A (ja) * | 2011-03-25 | 2012-10-22 | Olympus Imaging Corp | 画像処理装置および画像処理方法 |
CN102663357A (zh) * | 2012-03-28 | 2012-09-12 | 北京工业大学 | 基于颜色特征的停车场车位检测算法 |
US9317908B2 (en) * | 2012-06-29 | 2016-04-19 | Behavioral Recognition System, Inc. | Automatic gain control filter in a video analysis system |
EP2680219A1 (en) * | 2012-06-29 | 2014-01-01 | Thomson Licensing | Method for reframing images of a video sequence, and apparatus for reframing images of a video sequence |
CN102799868B (zh) * | 2012-07-10 | 2014-09-10 | 吉林禹硕动漫游戏科技股份有限公司 | 人脸面部关键表情识别方法 |
JP2014123815A (ja) * | 2012-12-20 | 2014-07-03 | Sony Corp | 画像処理装置、画像処理方法及び記録媒体 |
US9087263B2 (en) * | 2013-12-09 | 2015-07-21 | National Chung Shan Institute Of Science And Technology | Vision based pedestrian and cyclist detection method |
JP6693509B2 (ja) * | 2015-04-14 | 2020-05-13 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
-
2016
- 2016-02-17 US US15/559,979 patent/US11263769B2/en active Active
- 2016-02-17 JP JP2017512215A patent/JP6724904B2/ja active Active
- 2016-02-17 CN CN201680019671.XA patent/CN107431762B/zh active Active
- 2016-02-17 EP EP16779809.9A patent/EP3285477B1/en active Active
- 2016-02-17 WO PCT/JP2016/054553 patent/WO2016167017A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289516A (ja) * | 2003-03-24 | 2004-10-14 | Konica Minolta Holdings Inc | 画像処理方法、画像処理装置、画像処理プログラム及び画像読取装置 |
JP2005175684A (ja) * | 2003-12-09 | 2005-06-30 | Nikon Corp | デジタルカメラおよびデジタルカメラの画像取得方法 |
JP2006345134A (ja) * | 2005-06-08 | 2006-12-21 | Tomy Co Ltd | デジタルカメラ |
JP2008288797A (ja) * | 2007-05-16 | 2008-11-27 | Nikon Corp | 撮像装置 |
JP2010103972A (ja) * | 2008-09-25 | 2010-05-06 | Sanyo Electric Co Ltd | 画像処理装置及び電子機器 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3285477A4 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019519015A (ja) * | 2016-03-31 | 2019-07-04 | クアルコム,インコーポレイテッド | 動的で確率的なワークの削減を伴う幾何学的なワークスケジューリング |
JPWO2018155683A1 (ja) * | 2017-02-24 | 2019-12-26 | 国立研究開発法人宇宙航空研究開発機構 | 飛翔体、及びプログラム |
US11262447B2 (en) | 2017-02-24 | 2022-03-01 | Japan Aerospace Exploration Agency | Flying body and program |
JP7521768B2 (ja) | 2017-02-24 | 2024-07-24 | 国立研究開発法人宇宙航空研究開発機構 | 飛翔体 |
US11823715B2 (en) | 2019-03-20 | 2023-11-21 | Sony Group Corporation | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
US11263769B2 (en) | 2022-03-01 |
JP6724904B2 (ja) | 2020-07-15 |
EP3285477A4 (en) | 2018-09-19 |
CN107431762B (zh) | 2020-12-01 |
JPWO2016167017A1 (ja) | 2018-02-08 |
EP3285477B1 (en) | 2023-06-28 |
EP3285477A1 (en) | 2018-02-21 |
CN107431762A (zh) | 2017-12-01 |
US20180108144A1 (en) | 2018-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016167017A1 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
JP6693509B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
JP6604019B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
JP6439820B2 (ja) | 対象識別方法、対象識別装置、及び分類器訓練方法 | |
JP5576937B2 (ja) | 車両の周辺監視装置 | |
US9295141B2 (en) | Identification device, method and computer program product | |
US20120020523A1 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
CN111767888A (zh) | 对象状态检测方法、计算机设备、存储介质和电子设备 | |
JP6551226B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2012103789A (ja) | オブジェクト表示装置及びオブジェクト表示方法 | |
US20170190301A1 (en) | Vehicle periphery monitoring device | |
US20120056995A1 (en) | Method and Apparatus for Stereo-Based Proximity Warning System for Vehicle Safety | |
JP6088024B2 (ja) | 不正を検出するためのビデオ監視システムおよび方法 | |
JP5780979B2 (ja) | 車両状態検出装置、車両挙動検出装置及び車両状態検出方法 | |
US10573014B2 (en) | Image processing system and lens state determination method | |
KR20150060032A (ko) | 움직임 검출 시스템 및 방법 | |
JP7435298B2 (ja) | 物体検出装置および物体検出方法 | |
KR102710645B1 (ko) | 객체 썸네일 처리장치 및 그 장치의 구동방법 | |
JP2010186435A (ja) | 煙検出装置 | |
JP6948222B2 (ja) | 撮影画像に含まれる停車場所を判定するためのシステム、方法、及びプログラム | |
JP2024089476A (ja) | 情報処理装置、検知装置、情報処理方法及びプログラム | |
JP2013065238A (ja) | コーナー検出装置 | |
JP2011170812A (ja) | 駐車検出装置、駐車検出方法および駐車検出プログラム | |
JP2016189504A (ja) | 形状認識装置及び形状認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16779809 Country of ref document: EP Kind code of ref document: A1 |
|
REEP | Request for entry into the european phase |
Ref document number: 2016779809 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2017512215 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15559979 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |