WO2024018876A1 - 被写体検出装置、被写体検出方法及び被写体検出プログラム - Google Patents

被写体検出装置、被写体検出方法及び被写体検出プログラム Download PDF

Info

Publication number
WO2024018876A1
WO2024018876A1 PCT/JP2023/024482 JP2023024482W WO2024018876A1 WO 2024018876 A1 WO2024018876 A1 WO 2024018876A1 JP 2023024482 W JP2023024482 W JP 2023024482W WO 2024018876 A1 WO2024018876 A1 WO 2024018876A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
background
moving object
frame image
detection device
Prior art date
Application number
PCT/JP2023/024482
Other languages
English (en)
French (fr)
Inventor
真也 阪田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2024018876A1 publication Critical patent/WO2024018876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition

Definitions

  • the present invention relates to a subject detection device, a subject detection method, and a subject detection program.
  • An object detection device has been proposed that detects a desired object, such as a person, from an input image.
  • a technique has been proposed in which pixels for which the difference between the background image stored in the storage unit and the input image is equal to or less than a threshold are rewritten to the same location in the background image (for example, see Patent Document 1).
  • the apparatus also includes a first detection means and a second detection means for detecting a predetermined object from an image using mutually different detection algorithms, integrates the candidate areas detected by the first detection means, and A technique has been proposed in which only the second detection means performs object detection (for example, see Patent Document 2).
  • One aspect of the disclosed technology is to provide a subject detection device, a subject detection method, and a subject detection program that can suppress a decrease in detection rate of a desired object due to background conditions.
  • the subject detection device includes: a moving object detection section that detects a moving object in a frame image included in an input video; an image processing section that performs a smoothing process on a background region excluding the moving object from the frame image;
  • the apparatus further includes a detection unit that detects a desired subject included in the processed image when the processed image in which the background area has been subjected to the smoothing process is input.
  • the subject detection device With the subject detection device, the subject is detected after smoothing processing is performed on the background area. Even if a complex pattern or scenery is arranged in the background area, smoothing the background area prevents the subject from being buried in the background area. Therefore, the subject detection device described above can suppress a decrease in the detection rate of a desired object due to the state of the background.
  • the smoothing process includes a blurring process that averages the brightness value of each pixel by giving a predetermined weight to each pixel, an averaging process that averages the brightness and color of each pixel, and a fill process that fills it with a predetermined color. etc. can be mentioned.
  • the subject detection device may have the following features.
  • the smoothing process may include a blurring process in which each pixel in the background area is given a predetermined weight to average the luminance values of the pixels. With such blurring processing, it is possible to smooth the background area while leaving some color information of the original background area. Therefore, for example, a processed image in which the background area is processed by blurring has characteristics closer to the training data used for machine learning in the detection unit than a processed image in which the background area is processed by fill-in processing. . Therefore, a subject detection device that employs the blurring process described above can increase the detection rate of a desired subject compared to a case that employs other smoothing processes.
  • the subject detection device detects the first subject in the second frame image following the first frame image in the moving image.
  • the second area corresponding to the area may be excluded from the smoothing process.
  • excluding from the smoothing process may mean excluding the second area from the background area, or including the second area in the background area and applying the smoothing process to the second area.
  • the conversion process may not be performed.
  • the disclosed technology can also be understood from the aspects of a subject detection method and a subject detection program.
  • FIG. 1 is a diagram illustrating an example of a person detection system according to an embodiment.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the human detection device.
  • FIG. 3 is a diagram illustrating an example of processing blocks of the human detection device.
  • FIG. 4 is a diagram showing an example of a frame image input from a video camera.
  • FIG. 5 is a diagram illustrating an example of a background before being subjected to smoothing processing by the image processing unit.
  • FIG. 6 is a diagram illustrating an example of a background that has been subjected to smoothing processing by the image processing unit.
  • FIG. 7 is a diagram showing an example of a processed image.
  • FIG. 8 is a diagram illustrating an example of a processing flow of the person detection device according to the embodiment.
  • FIG. 9 is a diagram illustrating an example of a processing flow of the human detection device according to the first modification.
  • FIG. 10 is a diagram illustrating an example of the processing flow of the human detection device according to
  • the present invention is applied, for example, to a person detection system 1, an example of which is shown in FIG.
  • the person detection system 1 includes a video camera 20 and a person detection device 10.
  • the person detection device 10 is, for example, a device constructed by machine learning using image data of people photographed under various conditions as training data.
  • a moving image shot by a video camera 20 is input to the person detection device 10.
  • the person detection device 10 detects a moving object in each frame image of the input video. Then, the person detection device 10 performs a predetermined smoothing process on the background region excluding the moving object from the frame image. Then, the person detection device 10 uses the image in which the background area has been smoothed, so that even if a complex pattern or scenery is arranged in the background area where a person is to be detected, such pattern or scenery is By smoothing by the above-mentioned smoothing process, it is possible to suppress the moving object from being buried in the background area. Therefore, the person detection device 10 can suppress a decrease in the detection rate of the desired object due to the state of the background.
  • FIG. 1 is a diagram showing an example of a person detection system 1 according to an embodiment.
  • the person detection system 1 includes a person detection device 10 and a video camera 20.
  • the person detection system 1 is a system in which a person detection device 10 detects a person from a moving image captured by a video camera 20.
  • FIG. 1 an example of a person H1 and a dog H2 being photographed by a video camera 20 is illustrated.
  • the video camera 20 is, for example, a digital video camera equipped with a Charge Coupled Device (CCD) image sensor or a Complementary Metal Oxide Semiconductor (CMOS) image sensor as an image sensor.
  • Video camera 20 may be a camera equipped with a distance image sensor.
  • the moving image captured by the video camera 20 includes a plurality of frame images arranged in chronological order. Examples of the frame image include an RGB image, a grayscale image, a temperature image showing the temperature distribution of a subject, and a distance image generated by a distance image sensor.
  • the video camera 20 outputs each frame image of the captured video to the person detection device 10.
  • the person detection device 10 detects people included in the video input from the video camera 20. Here, the person detection device 10 performs a smoothing process on the background region of the input frame image as a preparation before detecting a person. The person detection device 10 then performs a person detection process on the frame image that has been subjected to the smoothing process.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the person detection device 10.
  • the human detection device 10 includes a CPU 101, a main storage section 102, an auxiliary storage section 103, a communication section 104, and a connection bus B1.
  • the CPU 101, main storage section 102, auxiliary storage section 103, and communication section 104 are connected by a connection bus B1.
  • the CPU 101 is also called a microprocessor unit (MPU) or processor.
  • the CPU 101 is not limited to a single processor, and may have a multiprocessor configuration. At least a part of the processing executed by the CPU 101 is performed by a processor other than the CPU 101, for example, a dedicated processor such as a Digital Signal Processor (DSP), a Graphics Processing Unit (GPU), a numerical calculation processor, a vector processor, or an image processing processor. You can.
  • DSP Digital Signal Processor
  • GPU Graphics Processing Unit
  • a numerical calculation processor a vector processor
  • image processing processor e.g., a vector processor, or an image processing processor. You can.
  • at least part of the processing executed by the CPU 101 may be executed by an integrated circuit (IC) or other digital circuit. Integrated circuits include large scale integrated circuits (LSIs), application specific integrated circuits (ASICs), and programmable logic devices (PLDs).
  • LSIs large scale integrated circuits
  • ASICs application specific integrated circuits
  • the PLD includes, for example, a field-programmable gate array (FPGA).
  • CPU 101 may be a combination of a processor and an integrated circuit. The combination is called, for example, a microcontroller unit (MCU), a system-on-a-chip (SoC), a system LSI, a chipset, or the like.
  • MCU microcontroller unit
  • SoC system-on-a-chip
  • LSI system LSI
  • chipset a chipset
  • the human detection device 10 the CPU 101 loads the program stored in the auxiliary storage unit 103 into the work area of the main storage unit 102, and controls peripheral devices through execution of the program. Thereby, the person detection device 10 can execute processing that meets a predetermined purpose.
  • the main storage unit 102 and the auxiliary storage unit 103 are recording media that can be read by the human detection device 10.
  • the main storage unit 102 is exemplified as a storage unit directly accessed by the CPU 101.
  • the main storage unit 102 includes Random Access Memory (RAM) and Read Only Memory (ROM).
  • the auxiliary storage unit 103 stores various programs and various data on a recording medium in a readable and writable manner.
  • the auxiliary storage unit 103 is also called an external storage device.
  • the auxiliary storage unit 103 stores an operating system (OS), various programs, various tables, and the like.
  • the OS includes a communication interface program that exchanges data with an external device connected via the communication unit 104.
  • External devices include, for example, other information processing devices and external storage devices connected via a computer network or the like.
  • the auxiliary storage unit 103 may be, for example, part of a cloud system that is a group of computers on a network.
  • the auxiliary storage unit 103 is, for example, an erasable programmable ROM (EPROM), a solid state drive (SSD), a hard disk drive (HDD), or the like. Further, the auxiliary storage unit 103 is, for example, a Compact Disc (CD) drive device, a Digital Versatile Disc (DVD) drive device, a Blu-ray (registered trademark) Disc (BD) drive device, or the like. Further, the auxiliary storage unit 103 may be provided by Network Attached Storage (NAS) or Storage Area Network (SAN).
  • EPROM erasable programmable ROM
  • SSD solid state drive
  • HDD hard disk drive
  • the auxiliary storage unit 103 is, for example, a Compact Disc (CD) drive device, a Digital Versatile Disc (DVD) drive device, a Blu-ray (registered trademark) Disc (BD) drive device, or the like.
  • the auxiliary storage unit 103 may be provided by Network Attached Storage (NAS) or Storage Area Network (
  • the communication unit 104 is, for example, an interface with an external device.
  • Examples of the communication unit 104 include a Universal Serial Bus (USB) port, a Bluetooth (registered trademark) module, and a network interface card.
  • the person detection device 10 communicates with the video camera 20 via the communication unit 104.
  • FIG. 3 is a diagram showing an example of processing blocks of the person detection device 10.
  • the person detection device 10 includes a difference processing section 11, an image processing section 12, and a detection section 13.
  • the human detection device 10 is configured so that each section of the human detection device 10, such as the difference processing section 11, the image processing section 12, the detection section 13, etc. Execute processing as .
  • the difference processing unit 11 detects a moving object in a frame image included in a video input from the video camera 20. There is no limitation to the method of detecting a moving object, and various known methods can be employed.
  • the difference processing unit 11 may detect a moving object included in a frame image, for example, by detecting an inter-frame difference that occurs between frame images. For example, the difference processing unit 11 may detect a moving object included in the frame image based on the difference between the frame image and the background image stored in the auxiliary storage unit 103.
  • FIG. 4 is a diagram showing an example of a frame image 200 input from the video camera 20.
  • the frame image 200 includes a moving object 210A, a moving object 210B, and a background 220.
  • a plurality of dark background patterns 221 are arranged on the background 220.
  • the difference processing unit 11 detects a moving object 210A and a moving object 210B from the frame image 200.
  • the difference processing unit 11 is an example of a “moving object detection unit”.
  • the image processing unit 12 performs smoothing processing on the background 220 from which the detected moving objects 210A and 210B are removed from the frame image 200.
  • FIG. 5 is a diagram illustrating an example of the background 220 before being subjected to smoothing processing by the image processing unit 12.
  • the image processing unit 12 extracts a background 220 as illustrated in FIG. 5 by removing the moving object 210A and the moving object 210B detected by the difference processing unit 11 from the frame image 200. Note that in the background 220, the regions where the moving object 210A and the moving object 210B were present may be included as the white outline 210A1 and the white outline 210B1.
  • the image processing unit 12 performs smoothing processing on the extracted background 220.
  • Smoothing processing includes, for example, blurring processing that averages the luminance value of each pixel by giving a predetermined weight to each pixel, averaging processing that averages the luminance and color of each pixel, and fill processing that fills it with a predetermined color. etc. can be mentioned.
  • FIG. 6 is a diagram illustrating an example of a background 220 that has been subjected to smoothing processing by the image processing unit 12. Due to the smoothing process performed by the image processing unit 12, the background pattern 221 placed on the background 220 becomes less noticeable.
  • the image processing unit 12 generates a processed image 201 in which the moving object 210A and the moving object 210B are superimposed on the background 220 that has been subjected to the smoothing process.
  • FIG. 7 is a diagram showing an example of the processed image 201.
  • a moving object 210A and a moving object 210B are placed on a background 220 that has been subjected to a smoothing process.
  • the processed image 201 is the same image as the frame image 200 except that the background 220 has been subjected to smoothing processing. That is, the image processing unit 12 does not perform smoothing processing on the moving object 210A and the moving object 210B.
  • the background pattern 221 becomes less conspicuous than in the frame image 200, so that the moving objects 210A and 210B are prevented from being buried in the background 220, which makes it easier for the detection unit 13 to recognize the moving objects 210A and 210B. becomes.
  • the image processing unit 12 outputs the processed image 201 to the detection unit 13.
  • the detection unit 13 detects a person included in the processed image 201.
  • the detection unit 13 is constructed, for example, by machine learning using images of people taken under various conditions as training data.
  • the teacher data used for learning by the detection unit 13 is, for example, image data that has not been subjected to smoothing processing by the image processing unit 12.
  • the detection unit 13 detects a person included in the processed image 201 input from the image processing unit 12.
  • the detection unit 13 detects the moving object 210A as a person.
  • FIG. 8 is a diagram illustrating an example of a processing flow of the person detection device 10 according to the embodiment.
  • the process of FIG. 8 is repeatedly executed, for example, every time a frame image 200 is input from the video camera 20.
  • the processing flow of the person detection device 10 will be described assuming that the frame image 200 illustrated in FIG. 4 is input to the person detection device 10.
  • FIG. 8 an example of the processing flow of the human detection device 10 will be described.
  • step S1 the difference processing unit 11 receives an input of a frame image 200 captured by the video camera 20.
  • step S2 the difference processing unit 11 extracts the background 220 from the frame image 200 input in step S1.
  • the difference processing unit 11 identifies the moving object 210A and the moving object 210B included in the frame image 200 as moving objects. Then, the difference processing unit 11 excludes the identified moving object 210A and moving object 210B from the frame image 200, and extracts a background 220 as illustrated in FIG.
  • step S3 the image processing unit 12 performs smoothing processing, such as blurring processing, averaging processing, blacking processing, etc., on the background 220 extracted in step S2.
  • smoothing processing such as blurring processing, averaging processing, blacking processing, etc.
  • step S4 the image processing unit 12 generates a processed image 201 in which the moving objects 210A and 210B identified in step S2 are placed on the background 220 subjected to the smoothing process in step S3.
  • the generated processed image 201 is obtained by performing smoothing processing on the background 220 of the frame image 200.
  • the image processing unit 12 outputs the generated processed image 201 to the detection unit 13.
  • step S5 the detection unit 13 detects a person included in the processed image 201 input from the image processing unit 12.
  • the detection unit 13 detects that the moving object 210A is a person in the input processed image 201.
  • the background 220 is complex, such as the frame image 200 in which multiple background patterns 221 are arranged, the person who is the subject will be buried in the background 220, making it difficult to detect the person using a detector learned by machine learning. There are cases.
  • the image processing unit 12 performs smoothing processing on the background 220 extracted by the difference processing unit 11, thereby suppressing the person who is the subject from being buried in the background 220. Therefore, according to this embodiment, the accuracy of human detection by the human detection device 10 can be improved.
  • the smoothing process if a blurring process in which each pixel is given a predetermined weight and the luminance values of the pixels are averaged is adopted as the smoothing process, the color information of the original background area is smoothed while the background area is smoothed. It is also possible to leave some of the Therefore, the difference between the processed image 201 and the teacher data used to construct the detection unit 13 is smaller than when other smoothing processes are adopted. Therefore, the person detection device 10 that uses the blurring process described above can increase the person detection rate more than the person detection device 10 that uses other smoothing processes.
  • An example of a method for detecting a moving object in the frame image 200 is an interframe difference method.
  • the interframe difference method a moving object is detected based on the difference that occurs between frames.
  • the difference processing unit 11 detects a moving object using the inter-frame difference method, if there is little movement of a person, the difference that occurs between frames will be small, so smoothing processing is also performed on the area where the moving object is present. There is a risk that this may occur.
  • processing for suppressing smoothing processing for such a moving object will be described.
  • FIG. 9 is a diagram showing an example of a processing flow of the person detection device 10 according to the first modification. Similarly to the processing flow illustrated in FIG. 8, the processing flow illustrated in FIG. 9 is repeatedly executed, for example, each time a frame image 200 is input from the video camera 20. Processes that are the same as those in the embodiment are given the same reference numerals, and their explanations will be omitted. Hereinafter, with reference to FIG. 9, a processing flow of the person detection device 10 according to the first modification will be described.
  • step S3A differs depending on whether feedback that a person was detected in the frame image 200 processed immediately before was received.
  • the image processing unit 12 receives the feedback in the process of step S6, which will be described later, the image processing unit 12 performs smoothing processing on the area corresponding to the area where a person was detected in the previously processed frame image 200. do not have. That is, when the moving object 210A is detected as a person in the previously processed frame image 200, the image processing unit 12 in step S3A detects that an inter-frame difference occurs in a region corresponding to the moving object 210A in the currently processed frame image 200. Even if the moving object 210A is not included, the area corresponding to the moving object 210A is excluded from the smoothing process.
  • the frame image 200 processed immediately before is an example of a "first frame image.”
  • the frame image 200 to be processed this time is an example of a "second frame image.”
  • the area in which a person was detected in the frame image 200 processed immediately before is an example of a "first area.”
  • the area corresponding to the moving object 210A in the frame image 200 to be processed this time is an example of a "second area.”
  • step S6 the detection unit 13 provides feedback of the area where the person was detected in step S5.
  • Feedback by the detection unit 13 may be performed, for example, by storing the area where the person was detected in step S5 in the auxiliary storage unit 103.
  • the area where a person was detected in the previous frame image 200 is excluded from the smoothing process by the image processing unit 12. Therefore, according to the first modification, it is possible to prevent a person from being erroneously recognized as the background.
  • a method for detecting a moving object in the frame image 200 includes a background subtraction method.
  • the background subtraction method a moving object is detected based on a difference from a background image stored in a storage unit.
  • the background image stored in the storage unit is updated to a background image representing the background 220 extracted from the latest frame image 200.
  • the second modification processing for suppressing a moving object from being recognized as part of the background 220 will be described.
  • FIG. 10 is a diagram showing an example of the processing flow of the person detection device 10 according to the second modification. Similarly to the processing flow illustrated in FIG. 8, the processing flow illustrated in FIG. 10 is repeatedly executed, for example, each time a frame image 200 is input from the video camera 20. Processes that are the same as those in the embodiment are given the same reference numerals, and their explanations will be omitted. Hereinafter, with reference to FIG. 10, a processing flow of the person detection device 10 according to the second modification will be described.
  • step S2B differs depending on whether or not feedback that a person was detected in the frame image 200 processed immediately before has been received.
  • the image processing unit 12 receives the feedback in the process of step S6A, which will be described later, the image processing unit 12 excludes the area where the person is detected from the background 220. That is, when the moving object 210A is detected as a person in the previously processed frame image 200, the image processing unit 12 in step S2B generates a background image excluding the area corresponding to the moving object 210A in the currently processed frame image 200.
  • the information is stored in the auxiliary storage unit 103.
  • the image processing unit 12 extracts the background image from the frame image 200 based on the background image stored in the auxiliary storage unit 103.
  • the extracted background image is stored in the auxiliary storage unit 103.
  • the area where a person was detected in the previous frame image 200 is excluded from the background image stored in the auxiliary storage unit 103. Therefore, according to the second modification, erroneous recognition of a person as part of the background 220 is suppressed.
  • Computer-readable recording medium An information processing program that causes a computer or other machine or device (hereinafter referred to as a computer or the like) to realize any of the above functions can be recorded on a computer-readable recording medium. Then, by causing a computer or the like to read and execute the program on this recording medium, the function can be provided.
  • a computer-readable recording medium is a recording medium that stores information such as data and programs through electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. means.
  • these recording media those that can be removed from computers etc. include flexible disks, magneto-optical disks, Compact Disc Read Only Memory (CD-ROM), Compact Disc-Recordable (CD-R), and Compact Disc-ReWrit. erable (CD-RW), Digital Versatile Disc (DVD), Blu-ray Disc (BD), Digital Audio Tape (DAT), 8mm tape, flash memory, external hard disk drive, Solid State Drive (SSD), etc.
  • CD-ROM Compact Disc Read Only Memory
  • CD-R Compact Disc-Recordable
  • CD-RW Compact Disc-ReWrit. erable
  • DVD Digital Versatile Disc
  • BD Blu-ray Disc
  • DAT Digital Audio Tape
  • 8mm tape flash memory
  • flash memory external hard disk drive
  • SSD Solid State Drive
  • SSD Solid State Drive
  • a moving object detection unit (11) that detects a moving object (210A, 210B) in a frame image (200) included in an input video; an image processing unit (12) that performs smoothing processing on a background region (220) excluding the moving objects (210A, 210B) from the frame image (200);
  • a detection unit (13) detects a desired subject (210A) included in the processed image (201). ) and, Subject detection device (1).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

背景の状態による所望の物体の検出率低下を抑制する。本被写体検出装置は、入力された動画に含まれるフレーム画像中の動体を検出する動体検出部と、上記フレーム画像から上記動体を除いた背景領域に対して平滑化処理を行う画像処理部と、上記背景領域に対する上記平滑化処理が行われた処理後画像が入力されると、上記処理後画像に含まれる所望の被写体を検出する検出部と、を備える。

Description

被写体検出装置、被写体検出方法及び被写体検出プログラム
 本発明は、被写体検出装置、被写体検出方法及び被写体検出プログラムに関する。
 入力された画像から人等の所望の物体を検出する物体検出装置が提案されている。
 記憶部に記憶させた背景画像と入力画像との差分が閾値以下の画素については背景画像の同一場所に書き換える技術が提案されている(例えば、特許文献1参照)。また、互いに異なる検出アルゴリズムによって画像から所定の物体を検出する第1検出手段および第2検出手段を有し、第1検出手段によって検出された候補領域を統合し、統合後の候補領域に対してのみ第2検出手段による物体検出を実行する技術が提案されている(例えば、特許文献2参照)。
特開平5-120432号公報 特開2019-021001号公報
 しかしながら、従来の技術では、背景の状態によっては所望の物体を画像から検出することが難しいことがある。例えば、背景に複雑な模様や景色が配置されている場合、所望の物体が背景に埋もれてしまい、所望の物体を検出する検出率が低下する虞がある。
 開示の技術の1つの側面は、背景の状態による所望の物体の検出率低下を抑制できる被写体検出装置、被写体検出方法及び被写体検出プログラムを提供することを目的とする。
 開示の技術の1つの側面は、次のような被写体検出装置によって例示される。本被写体検出装置は、入力された動画に含まれるフレーム画像中の動体を検出する動体検出部と、上記フレーム画像から上記動体を除いた背景領域に対して平滑化処理を行う画像処理部と、上記背景領域に対する上記平滑化処理が行われた処理後画像が入力されると、上記処理後画像に含まれる所望の被写体を検出する検出部と、を備える。
 上記被写体検出装置であれば、上記背景領域に対して平滑化処理が行われてから被写体の検出が行われる。仮に背景領域に複雑な模様や景色が配置されているような場合でも、背景領域が平滑化されることで被写体が背景領域に埋もれてしまうことが抑制される。そのため、上記被写体検出装置は、背景の状態による所望の物体の検出率低下を抑制できる。なお、平滑化処理としては、各画素に所定の重みづけを行って画素の輝度値を平均化するぼかし処理、各画素の輝度や色を平均化する平均化処理、所定の色で塗りつぶす塗りつぶし処理等を挙げることができる。
 上記被写体検出装置は、次の特徴を備えてもよい。上記平滑化処理は、上記背景領域の各画素に所定の重みづけを行って画素の輝度値を平均化するぼかし処理を含んでもよい。このようなぼかし処理であれば、背景領域を平滑化しつつ元の背景領域の色情報を多少は残すこともできる。そのため、例えば、塗りつぶし処理によって背景領域を処理した処理後画像よりも、ぼかし処理によって背景領域を処理した処理後画像は、検出部の機械学習に用いられた教師データに近い特徴を有することとなる。そのため、上記ぼかし処理を採用した被写体検出装置は、他の平滑化処理を採用した場合よりも、所望の被写体の検出率を高めることができる。
 ここで、上記被写体検出装置は、第1のフレーム画像において上記所望の被写体が第1の領域で検出されると、上記動画において上記第1のフレーム画像に続く第2のフレーム画像における上記第1の領域に対応する第2の領域を上記平滑化処理の対象から除外してもよい。ここで、平滑化処理の対象から除外する、とは、上記第2の領域を背景領域から除外してもよいし、上記第2の領域を背景領域に含めつつ上記第2の領域に対する上記平滑化処理は行わないこととしてもよい。
 被写体に動きが少ない場合、フレーム間における当該被写体の差分が少ない(または無い)場合がある。このような場合、フレーム間の差分を基に動体を検出する手法を採用した場合、動体が存在する領域を動体として認識できない虞がある。また、記憶部に記憶させた背景画像を用いて背景領域を特定する手法においては、動体が存在する領域を背景領域と誤認識する虞がある。上記第2の領域を上記平滑化処理の対象から除外することで、動体が存在する領域を動体として認識できないことを抑制したり、動体が存在する領域を背景領域の一部として誤認識したりすることを抑制できる。
 開示の技術は、被写体検出方法及び被写体検出プログラムの側面から把握することも可能である。
 開示の技術によれば、背景の状態による所望の物体の検出率低下を抑制することができる。
図1は、実施形態に係る人検出システムの一例を示す図である。 図2は、人検出装置のハードウェア構成の一例を示す図である。 図3は、人検出装置の処理ブロックの一例を示す図である。 図4は、ビデオカメラから入力されるフレーム画像の一例を示す図である。 図5は、画像処理部による平滑化処理が施される前の背景の一例を示す図である。 図6は、画像処理部によって平滑化処理が施された背景の一例を示す図である。 図7は、処理後画像の一例を示す図である。 図8は、実施形態に係る人検出装置の処理フローの一例を示す図である。 図9は、第1変形例に係る人検出装置の処理フローの一例を示す図である。 図10は、第2変形例に係る人検出装置の処理フローの一例を示す図である。
 <適用例>
 以下、本発明の適用例について、図面を参照して説明する。本発明は、例えば、図1に一例を示すような人検出システム1に適用される。人検出システム1は、ビデオカメラ20と人検出装置10を備える。人検出装置10は、例えば、様々な条件下で人を撮影した画像データを教師データとした機械学習によって構築された装置である。
 人検出システム1では、ビデオカメラ20によって撮影された動画が人検出装置10に入力される。人検出装置10では、入力された動画の各フレーム画像において、動体を検出する。そして、人検出装置10は、フレーム画像から動体を除いた背景領域に対して、所定の平滑化処理を行う。そして、人検出装置10は、背景領域に対する平滑化処理が行われた画像を用いて、人の検出を行う背景領域に複雑な模様や景色が配置されていても、そのような模様や景色が上記平滑化処理によって平滑化されることで、背景領域に動体が埋もれることを抑制できる。そのため、人検出装置10は、背景の状態による所望の物体の検出率低下を抑制することができる。
 <実施形態>
 以下、図面を参照して実施形態について説明する。図1は、実施形態に係る人検出システム1の一例を示す図である。人検出システム1は、人検出装置10及びビデオカメラ20を備える。人検出システム1では、ビデオカメラ20によって撮影された動画から人検出装置10が人の検出を行うシステムである。図1では、ビデオカメラ20によって人H1と犬H2が撮影される様子が例示される。
 ビデオカメラ20は、例えば、撮像素子としてCharge Coupled Device(CCD)イメージセンサやComplementary Metal Oxide Semiconductor(CMOS)イメージセンサを備えたデジタルビデオカメラである。ビデオカメラ20は、距離画像センサを備えたカメラであってもよい。ビデオカメラ20によって撮影される動画は、時系列に並べられた複数のフレーム画像を含む。フレーム画像としては、RGB画像、グレースケール画像、被写体の温度分布を示す温度画像、距離画像センサによって生成された距離画像等を挙げることができる。ビデオカメラ20は、撮影した動画の各フレーム画像を人検出装置10に出力する。
 人検出装置10は、ビデオカメラ20から入力された動画に含まれる人を検出する。ここで、人検出装置10は、人を検出する前準備として、入力されたフレーム画像の背景領域に対して平滑化処理を行う。そして、人検出装置10は、平滑化処理が行われたフレーム画像に対して人の検出処理を実行する。
 図2は、人検出装置10のハードウェア構成の一例を示す図である。人検出装置10は、CPU101、主記憶部102、補助記憶部103、通信部104及び接続バスB1を備える。CPU101、主記憶部102、補助記憶部103及び通信部104は、接続バスB1によって接続される。
 CPU101は、マイクロプロセッサユニット(MPU)、プロセッサとも呼ばれる。CPU101は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。CPU101が実行する処理のうち少なくとも一部は、CPU101以外のプロセッサ、例えば、Digital Signal Processor(DSP)、Graphics Processing Unit(GPU)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用プロセッサで行われてもよい。また、CPU101が実行する処理のうち少なくとも一部は、集積回路(IC)、その他のデジタル回路によって実行されてもよい。集積回路は、Large Scale Integrated circuit(LSI)、Application Specific Integrated Circuit(ASIC)、プログラマブルロジックデバイス(PLD)を含む。PLDは、例えば、Field-Programmable Gate Array(FPGA)を含む。CPU101は、プロセッサと集積回路との組み合わせであってもよい。組み合わせは、例えば、マイクロコントローラユニット(MCU)、System-on-a-chip(SoC)、システムLSI、チップセットなどと呼ばれる。人検出装置10では、CPU101が補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に展開し、プログラムの実行を通じて周辺装置の制御を行う。これにより、人検出装置10は、所定の目的に合致した処理を実行することができる。主記憶部102及び補助記憶部103は、人検出装置10が読み取り可能な記録媒体である。
 主記憶部102は、CPU101から直接アクセスされる記憶部として例示される。主記憶部102は、Random Access Memory(RAM)及びRead Only Memory(ROM)を含む。
 補助記憶部103は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。補助記憶部103は外部記憶装置とも呼ばれる。補助記憶部103には、オペレーティングシステム(Operating System、OS)、各種プログラム、各種テーブル等が格納される。OSは、通信部104を介して接続される外部装置等とのデータの受け渡しを行う通信インターフェースプログラムを含む。外部装置等には、例えば、コンピュータネットワーク等で接続された、他の情報処理装置及び外部記憶装置が含まれる。なお、補助記憶部103は、例えば、ネットワーク上のコンピュータ群であるクラウドシステムの一部であってもよい。
 補助記憶部103は、例えば、Erasable Programmable ROM(EPROM)、ソリッドステートドライブ(Solid State Drive、SSD)、ハードディスクドライブ(Hard Disk Drive、HDD)等である。また、補助記憶部103は、例えば、Compact Disc(CD)ドライブ装置、Digital Versatile Disc(DVD)ドライブ装置、Blu-ray(登録商標) Disc(BD)ドライブ装置等である。また、補助記憶部103は、Network Attached Storage(NAS)あるいはStorage Area Network(SAN)によって提供されてもよい。
 通信部104は、例えば、外部装置とのインターフェースである。通信部104としては、例えば、Universal Serial Bus(USB)ポート、Bluetooth(登録商標)モジュール、及び、ネットワークインターフェースカードを挙げることができる。人検出装置10は、通信部104を介して、ビデオカメラ20との通信を行う。
 <人検出装置10の処理ブロック>
 図3は、人検出装置10の処理ブロックの一例を示す図である。人検出装置10は、差分処理部11、画像処理部12及び検出部13を備える。人検出装置10は、主記憶部102に実行可能に展開されたコンピュータプログラムをCPU101が実行することで、上記人検出装置10の、差分処理部11、画像処理部12及び検出部13等の各部としての処理を実行する。
 差分処理部11は、ビデオカメラ20から入力された動画に含まれるフレーム画像中の動体を検出する。動体の検出方法に限定は無く、様々な公知の手法を採用することができる。差分処理部11は、例えば、フレーム画像間に生じるフレーム間差分を検出することで、フレーム画像に含まれる動体を検出してもよい。差分処理部11は、例えば、フレーム画像と補助記憶部103に記憶された背景画像との差分を基にフレーム画像に含まれる動体を検出してもよい。
 図4は、ビデオカメラ20から入力されるフレーム画像200の一例を示す図である。フレーム画像200は、動体210A、動体210B及び背景220を含む。図4の例では、背景220には、色の濃い背景模様221が複数配置されている。差分処理部11は、フレーム画像200から動体210A及び動体210Bを検出する。差分処理部11は、「動体検出部」の一例である。
 画像処理部12は、検出した動体210A及び動体210Bをフレーム画像200から除いた背景220に対して、平滑化処理を施す。図5は、画像処理部12による平滑化処理が施される前の背景220の一例を示す図である。画像処理部12は、フレーム画像200から差分処理部11によって検出された動体210A及び動体210Bを除くことで、図5に例示するような背景220を抽出する。なお、背景220においては、動体210A及び動体210Bが存在していた領域が、白抜き210A1及び白抜き210B1として含まれてもよい。
 画像処理部12は、抽出した背景220に対して、平滑化処理を施す。平滑化処理としては、例えば、各画素に所定の重みづけを行って画素の輝度値を平均化するぼかし処理、各画素の輝度や色を平均化する平均化処理、所定の色で塗りつぶす塗りつぶし処理等を挙げることができる。図6は、画像処理部12によって平滑化処理が施された背景220の一例を示す図である。画像処理部12による平滑化処理によって、背景220に配置された背景模様221が目立たなくなっている。
 画像処理部12は、平滑化処理を施した背景220に動体210A及び動体210Bを重畳させた処理後画像201を生成する。図7は、処理後画像201の一例を示す図である。処理後画像201では、平滑化処理が施された背景220上に動体210A、動体210Bが配置されている。処理後画像201は、背景220に対して平滑化処理が施された点を除いて、フレーム画像200と同一の画像となる。すなわち、画像処理部12は、動体210A及び動体210Bに対する平滑化処理を行わない。処理後画像201では、フレーム画像200よりも背景模様221が目立たなくなることで、背景220に動体210Aや動体210Bが埋もれることが抑制され、ひいては、検出部13による動体210A及び動体210Bの認識が容易となる。画像処理部12は、処理後画像201を検出部13に出力する。
 検出部13は、処理後画像201に含まれる人を検出する。検出部13は、例えば、様々な条件下で人を撮影した画像を教師データとした機械学習によって構築される。なお、検出部13の学習に用いられる教師データは、例えば、画像処理部12による平滑化処理が施されていない画像データが用いられる。検出部13は、画像処理部12から入力された処理後画像201に含まれる人を検出する。処理後画像201として図7に例示する処理後画像201が入力された場合、検出部13は、動体210Aを人として検出する。
 <処理フロー>
 図8は、実施形態に係る人検出装置10の処理フローの一例を示す図である。図8の処理は、例えば、ビデオカメラ20からフレーム画像200が入力される度に繰り返し実行される。ここでは、図4に例示されるフレーム画像200が人検出装置10に入力されるものとして人検出装置10の処理フローについて説明する。以下、図8を参照して、人検出装置10の処理フローの一例について説明する。
 ステップS1では、差分処理部11は、ビデオカメラ20によって撮影されたフレーム画像200の入力を受け付ける。ステップS2では、差分処理部11は、ステップS1で入力されたフレーム画像200から背景220を抽出する。差分処理部11は、例えば、フレーム画像200に含まれる動体210Aと動体210Bを動体として特定する。そして、差分処理部11は、特定した動体210Aと動体210Bをフレーム画像200から除外して、図5に例示するような背景220を抽出する。
 ステップS3では、画像処理部12は、ステップS2で抽出された背景220に対して、ぼかし処理、平均化処理、黒塗り処理等によって例示される平滑化処理を施す。
 ステップS4では、画像処理部12は、ステップS3で平滑化処理を施した背景220に、ステップS2で特定された動体210A、210Bを配置した処理後画像201を生成する。生成された処理後画像201は、フレーム画像200の背景220に対して平滑化処理を施したものとなる。画像処理部12は、生成した処理後画像201を検出部13に出力する。
 ステップS5では、検出部13は、画像処理部12から入力された処理後画像201に含まれる人を検出する。ここでは、検出部13は、入力された処理後画像201のうち、動体210Aが人であると検出する。
 <実施形態の作用効果>
 複数の背景模様221が配置されたフレーム画像200のように背景220が複雑な場合には被写体となった人が背景220に埋もれてしまい、機械学習によって学習した検出器を用いた人検出が難しい場合がある。本実施形態では、差分処理部11によって抽出された背景220に対して画像処理部12が平滑化処理を施すことで、被写体となった人が背景220に埋もれることが抑制される。そのため、本実施形態によれば、人検出装置10による人検出の精度を向上させることができる。
 ここで、本実施形態において、各画素に所定の重みづけを行って画素の輝度値を平均化するぼかし処理を平滑化処理として採用する場合、背景領域を平滑化しつつ元の背景領域の色情報を多少は残すことも可能となる。そのため、他の平滑化処理を採用した場合と比較して、処理後画像201と検出部13の構築に用いた教師データとの差が小さなものとなる。そのため、上記ぼかし処理を採用した人検出装置10は、他の平滑化処理を採用した人検出装置10よりも、人の検出率を高めることができる。
 <第1変形例>
 フレーム画像200中の動体を検出する手法として、フレーム間差分法が挙げられる。フレーム間差分法では、フレーム間に生じる差分を基に動体が検出される。差分処理部11がフレーム間差分法を採用して動体を検出する場合、人の動きが少ないとフレーム間で生じる差分が僅かなものとなるため、動体が存在する領域に対しても平滑化処理が行われてしまう虞がある。第1変形例では、このような動体に対する平滑化処理を抑制する処理について説明する。
 図9は、第1変形例に係る人検出装置10の処理フローの一例を示す図である。図9に例示する処理フローも、図8に例示する処理フローと同様に、例えば、ビデオカメラ20からフレーム画像200が入力される度に繰り返し実行される。実施形態と同一の処理については同一の符号を付し、その説明を省略する。以下、図9を参照して、第1変形例に係る人検出装置10の処理フローについて説明する。
 ステップS3Aの処理は、1つ前に処理したフレーム画像200において人が検出されたことのフィードバックを受けたか否かによって処理が異なる。画像処理部12は、後述するステップS6の処理で当該フィードバックを受けた場合、1つ前に処理したフレーム画像200において人が検出された領域に対応する領域に対しては、平滑化処理を行わない。すなわち、ステップS3Aにおける画像処理部12は、1つ前に処理したフレーム画像200において動体210Aが人として検出されると、今回処理するフレーム画像200において動体210Aに相当する領域においてフレーム間差分が生じていなくとも、動体210Aに相当する領域を平滑化処理の対象から除外する。なお、1つ前に処理したフレーム画像200において検出された動体のフィードバック受けていない場合は、図8のステップS2における処理と同様の処理が行われる。1つ前に処理したフレーム画像200は、「第1のフレーム画像」の一例である。今回処理するフレーム画像200は、「第2のフレーム画像」の一例である。1つ前に処理したフレーム画像200において人が検出された領域は、「第1の領域」の一例である。今回処理するフレーム画像200において動体210Aに相当する領域は、「第2の領域」の一例である。
 ステップS6では、検出部13は、ステップS5で人が検出された領域のフィードバックを行う。検出部13によるフィードバックは、例えば、ステップS5で人が検出された領域を補助記憶部103に記憶させることで行われてもよい。
 第1変形例では、1つ前のフレーム画像200において人が検出された領域は画像処理部12による平滑化処理の対象から除外する。そのため、第1変形例によれば、人が背景として誤認識されることが抑制される。
 <第2変形例>
 フレーム画像200中の動体を検出する手法として、背景差分法が挙げられる。背景差分法では、記憶部に記憶された背景画像との差分を基に動体が検出される。背景差分法の場合、フレーム画像200の背景220を抽出する度に、記憶部に記憶された背景画像は最新のフレーム画像200から抽出された背景220を示す背景画像に更新される。このような背景差分法では、動体の動きが少ない場合に当該動体も背景220として処理される虞がある。第2変形例では、動体が背景220の一部として認識されることを抑制する処理について説明する。
 図10は、第2変形例に係る人検出装置10の処理フローの一例を示す図である。図10に例示する処理フローも、図8に例示する処理フローと同様に、例えば、ビデオカメラ20からフレーム画像200が入力される度に繰り返し実行される。実施形態と同一の処理については同一の符号を付し、その説明を省略する。以下、図10を参照して、第2変形例に係る人検出装置10の処理フローについて説明する。
 ステップS2Bの処理は、1つ前に処理したフレーム画像200において人が検出されたことのフィードバックを受けたか否かによって処理が異なる。画像処理部12は、後述するステップS6Aの処理で当該フィードバックを受けた場合、当該人が検出された領域については、背景220から除外する。すなわち、ステップS2Bにおける画像処理部12は、1つ前に処理したフレーム画像200において動体210Aが人として検出されると、今回処理するフレーム画像200において動体210Aに相当する領域を除外した背景画像を補助記憶部103に記憶させる。なお、1つ前に処理したフレーム画像200において検出された動体のフィードバック受けていない場合は、画像処理部12は、補助記憶部103に記憶済みの背景画像を基にフレーム画像200から背景画像を抽出し、抽出した背景画像を補助記憶部103に記憶させる。
 第2変形例によれば、1つ前のフレーム画像200において人が検出された領域は補助記憶部103に記憶させる背景画像から除外される。そのため、第2変形例によれば、人が背景220の一部として誤認識されることが抑制される。
 <その他の変形>
 以上説明した実施形態及び変形例では、人を検出する人検出装置10について説明された。しかしながら、実施形態及び変形例に係る技術は、人以外の動物、車両、航空機等の様々な動体の検出に採用することができる。
 以上で開示した実施形態や変形例はそれぞれ組み合わせることができる。
 <コンピュータが読み取り可能な記録媒体>
 コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させる情報処理プログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
 ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、Compact Disc Read Only Memory(CD-ROM)、Compact Disc-Recordable(CD-R)、Compact Disc-ReWriterable(CD-RW)、Digital Versatile Disc(DVD)、ブルーレイディスク(BD)、Digital Audio Tape(DAT)、8mmテープ、フラッシュメモリ、外付け型のハードディスクドライブやSolid State Drive(SSD)等がある。また、コンピュータ等に固定された記録媒体として内蔵型のハードディスクドライブ、SSDやROM等がある。
 <付記>
 入力された動画に含まれるフレーム画像(200)中の動体(210A、210B)を検出する動体検出部(11)と、
 前記フレーム画像(200)から前記動体(210A、210B)を除いた背景領域(220)に対して平滑化処理を行う画像処理部(12)と、
 前記背景領域(220)に対する前記平滑化処理が行われた処理後画像(201)が入力されると、前記処理後画像(201)に含まれる所望の被写体(210A)を検出する検出部(13)と、を備える、
 被写体検出装置(1)。
 1・・人検出システム
 10・・人検出装置
 11・・差分処理部
 12・・画像処理部
 13・・検出部
 20・・ビデオカメラ
 101・・CPU
 102・・主記憶部
 103・・補助記憶部
 104・・通信部
 200・・フレーム画像
 201・・処理後画像
 210A・・動体
 210B・・動体
 220・・背景
 221・・背景模様

Claims (6)

  1.  入力された動画に含まれるフレーム画像中の動体を検出する動体検出部と、
     前記フレーム画像から前記動体を除いた背景領域に対して平滑化処理を行う画像処理部と、
     前記背景領域に対する前記平滑化処理が行われた処理後画像が入力されると、前記処理後画像に含まれる所望の被写体を検出する検出部と、を備える、
     被写体検出装置。
  2.  前記平滑化処理は、前記背景領域の各画素に所定の重みづけを行って画素の輝度値を平均化するぼかし処理を含む、
     請求項1に記載の被写体検出装置。
  3.  前記平滑化処理は、前記背景領域を所定の色で塗りつぶす塗りつぶし処理を含む、
     請求項1に記載の被写体検出装置。
  4.  第1のフレーム画像において前記所望の被写体が第1の領域で検出されると、前記動画において前記第1のフレーム画像に続く第2のフレーム画像における前記第1の領域に対応する第2の領域を前記平滑化処理の対象から除外する、
     請求項1から3のいずれか一項に記載の被写体検出装置。
  5.  コンピュータが、
     入力された動画に含まれるフレーム画像中の動体を検出し、
     前記フレーム画像から前記動体を除いた背景領域に対して平滑化処理を実行し、
     前記背景領域に対する前記平滑化処理が行われた処理後画像が入力されると、前記処理後画像に含まれる所望の被写体を検出する、
     被写体検出方法。
  6. コンピュータに、
     入力された動画に含まれるフレーム画像中の動体を検出させ、
     前記フレーム画像から前記動体を除いた背景領域に対して平滑化処理を実行させ、
     前記背景領域に対する前記平滑化処理が行われた処理後画像が入力されると、前記処理後画像に含まれる所望の被写体を検出させる、
     被写体検出プログラム。
PCT/JP2023/024482 2022-07-19 2023-06-30 被写体検出装置、被写体検出方法及び被写体検出プログラム WO2024018876A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022114989A JP2024013068A (ja) 2022-07-19 2022-07-19 被写体検出装置、被写体検出方法及び被写体検出プログラム
JP2022-114989 2022-07-19

Publications (1)

Publication Number Publication Date
WO2024018876A1 true WO2024018876A1 (ja) 2024-01-25

Family

ID=89617680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/024482 WO2024018876A1 (ja) 2022-07-19 2023-06-30 被写体検出装置、被写体検出方法及び被写体検出プログラム

Country Status (2)

Country Link
JP (1) JP2024013068A (ja)
WO (1) WO2024018876A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339784A (ja) * 2005-05-31 2006-12-14 Casio Comput Co Ltd 撮像装置、画像処理方法及びプログラム
JP2008027138A (ja) * 2006-07-20 2008-02-07 Nissan Motor Co Ltd 車両用監視装置
JP2011253354A (ja) * 2010-06-02 2011-12-15 Sony Corp 画像処理装置および方法、並びにプログラム
WO2019150649A1 (ja) * 2018-01-30 2019-08-08 株式会社日立国際電気 画像処理装置および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339784A (ja) * 2005-05-31 2006-12-14 Casio Comput Co Ltd 撮像装置、画像処理方法及びプログラム
JP2008027138A (ja) * 2006-07-20 2008-02-07 Nissan Motor Co Ltd 車両用監視装置
JP2011253354A (ja) * 2010-06-02 2011-12-15 Sony Corp 画像処理装置および方法、並びにプログラム
WO2019150649A1 (ja) * 2018-01-30 2019-08-08 株式会社日立国際電気 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2024013068A (ja) 2024-01-31

Similar Documents

Publication Publication Date Title
US9747523B2 (en) Information processing apparatus, information processing method, and recording medium
US8385645B2 (en) Object detecting device, imaging apparatus, object detecting method, and program
AU2010257409B2 (en) Temporal-correlation-based mode connection
KR20190004271A (ko) 매크로포토그래피를 위한 컬러 및 모노 이미지들의 시차 마스크 융합
US11074742B2 (en) Image processing apparatus, image processing method, and storage medium
US10536679B2 (en) Imaging apparatus and image processing system having stacked structure
US20150146006A1 (en) Display control apparatus and display control method
US10713793B2 (en) Image processing apparatus, image processing method, and recording medium
US20180330170A1 (en) Information processing apparatus, information processing system, information processing method, and storage medium
WO2024018876A1 (ja) 被写体検出装置、被写体検出方法及び被写体検出プログラム
US10467730B2 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
US20200065979A1 (en) Imaging system and method with motion detection
JP6603123B2 (ja) 動物体の検出装置、検出方法及びプログラム
JP6602521B1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2015187782A (ja) 物体検出装置
WO2020090010A1 (ja) 異常行動検出装置、異常行動検出プログラム及び異常行動検出方法
KR100456102B1 (ko) 시간 필터링을 이용한 영상잡음 제거시 움직임 검출 장치및 그 방법
JP6877501B2 (ja) 滞留検知装置、滞留検知方法及び滞留検知プログラム
WO2023243202A1 (ja) 画像生成方法及び外観検査装置
JP7436752B2 (ja) 検知装置および検知方法
US20230274398A1 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
US20240005477A1 (en) Index selection device, information processing device, information processing system, inspection device, inspection system, index selection method, and index selection program
JP2005251132A (ja) 影検出装置、影検出方法及び影検出プログラム、影検出装置を用いた画像処理装置、影検出方法を用いた画像処理方法及び影検出プログラムを用いた画像処理プログラム
US20230247306A1 (en) Image capturing apparatus, information processing apparatus, control method, and storage medium
JP6891984B1 (ja) 物体検出装置、物体検出方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23842802

Country of ref document: EP

Kind code of ref document: A1